25 octubre 2013
Escaneado 3D de una pieza arqueológica con escáner láser
Etiquetas, Bitacoras.com: arqueología , escáner , modelos
08 septiembre 2013
Cómo hacer y difundir modelos 3D interactivos
Importante: es necesario descargarlo y abrirlo con Adobe Acrobat Reader ya que los otros visores de PDF (incluidos los de los navegadores) no interpretan los objetos 3D.
Artículo completo en Technical Briefs in Historical Archaeology (Society for Historical Archaeology).
Ejemplo para descargar (22.4 MB).
Resumen en inglés:
Three-dimensional (3-D) laser scanners build 3-D models of objects and have direct application in the cataloging of artifacts and in archaeological documentation. Some low-cost scanners are suitable for small objects because the scanners have high accuracy and the ability to capture color and textures. This paper provides the workflow and the steps needed to scan small objects using a low-cost scanner, to build textured 3-D models, and to transmit these models embedded in portable document format (PDF) files. The proposed procedure permits interaction with objects in various ways, including making measurements and building sections. The results enable the dissemination of high-precision interactive models, readable with free software, thereby facilitating the study of the metric and morphological features of archaeological objects.
Two views of gabbro adze with double-bevel polished edge from the dolmen of Guadancil 1, Garrovillas de Alconétar (Cáceres, Spain), 2012 season. Scale in centimeters. (Photo by ÁMF, 2013.) |
Etiquetas, Bitacoras.com: 3D , arqueología , escáner , modelos , publicación científica
15 febrero 2011
Mariposas tunecinas, historias de ciencia ficción y otros desvaríos
Mohamed Bouazizi, de 26 años, se suicida el 4 de enero de 2011 por su situación desesperada en una sociedad que no ofrece oportunidades de supervivencia. Su decisión desata una serie de catástrofes (René Thom dixit), primero en Túnez, después en Egipto, tal vez en Irán, Yemen, Jordania...
Leo en algunos periódicos que se va a financiar un "modelo informátíco del mundo" o algo semejante donde se van a introducir todos los datos posibles como, por ejemplo, "el uso de teléfonos móviles" para simular el funcionamiento del mundo y poder predecir crisis como la que nos está sacudiendo.
Sin embargo, la realidad es tozuda y una mera acumulación de datos (muchas veces erróneos o de fiabilidad desconocida) no es más útil para predecir el mundo que la bola de la pitonisa Lola. Necesitamos organizar redes de relaciones entre ellos adecuadamente conectadas, reguladas y realimentadas y, por supuesto, no tenemos ni idea de cómo podríamos hacer semejante cosa para que el modelo fuera mínimamente útil.
Atractor extraño, obra de rdash. |
Atractor extraño, obra de rdash. |
2.
Y sin embargo nuestras sociedades occidentales no saben de catástrofes. El relieve de nuestra conciencia colectiva es tan plano que no hay forma de asomarse al precipicio y caerse por un pliegue. Podríamos llamarlo el marasmo de las sociedades acomodadas. En otro libro, El fin de la eternidad, Asimov lo explicó sin saber que era un augurio. En la trama, pasado y futuro están conectados por una especie de túnel de tiempo que permite a unos técnicos, los "eternos", viajar hacia la historia pasada o futura y evitar catástrofes mediante pequeños cambios. Estas mínimas intervenciones generaban "efectos mariposa" que mantenían las sociedades en un estado de paz, placidez y ausencia de crisis. Al final de la novela se descubren las razones de algunos misterios pero la conclusión que nos interesa es que las sociedades que viven sin retos, sin crisis, sin incentivos, acaban por atrofiarse hasta en sus ganas de vivir y, por supuesto, en su capacidad de reaccionar.
Tal vez necesitamos una catástrofe para que, lejos de ver los movimientos del Norte de África como rarezas morunas, nos parezcan reacciones normales ante unos regímenes simplemente injustos. Posiblemente nuestra sociedad del bienestar, en vez de ser completamente beneficiosa tenga como efectos secundarios la atrofia de los valores, el aplastamiento de las utopías, la mediocridad de las ideas.
Etiquetas, Bitacoras.com: catástrofes , modelos , sociedad
15 octubre 2010
Paseos virtuales en el Vaticano
Una solución alternativa es contemplarlo todo desde casa, sin soportar empujones ni agobios, a través de una representación virtual realizada tras dos años de trabajo por la Villanova University (EE.UU.). Se trata de un modelo casi 3D del interior donde es posible desplazarse a placer y acercarse bastante a los frescos de paredes y bóveda. A mí me ha resultado realmente espectacular.
Fresco del Juicio Final |
Rebuscando un poco encontré que esta peculiar universidad ha realizado otros modelos igualmente magníficos e incluso más complejos, como los de las cuatro basílicas mayores de Roma, San Pedro, San Pablo, San Juan de Letrán y Santa María la Mayor, y la Capilla Paulina.
En la nave de San Juan de Letrán |
En el baptisterio de Santa María la Mayor |
En San Pablo Extramuros |
Etiquetas, Bitacoras.com: arte , fotografía , modelos
13 agosto 2008
Cómo se hizo "Las pardelas tienen GPS pero no le hacen caso": el espacio.
Otra cosa que quiero comentarles es que este tipo de trabajo lo realizamos como "especialistas en temas generales", valga la ironía. No somos especialistas en esto porque "esto" no es una especialidad. Se trata de trabajos donde hay que montar un puzzle de disciplinas diversas: zoología, satélites, meteorología, estadística, simulaciones... y eso nos gusta mucho. El riesgo es que podemos meter la pata con más facilidad que si nos dedicáramos a una fracción minúscula de alguna disciplina que domináramos a la perfección. La ventaja es que nos lo pasamos estupendamente y a veces, sólo a veces, salen resultados interesantes que merece la pena contar.
Los comienzos
En verano de 2003 terminaba una clase sobre modelos y sistemas de información geográfica en un máster en Barcelona. Había hablado sobre vientos medidos desde satélites y sobre dispersión de plantas sobre los océanos del hemisferio Sur, un trabajo aún sin publicar en aquel momento. El auditorio estaba más formado que yo en bastantes cosas: físicos, biólogos, geógrafos..., muchos ya profesionales y trabajando en sus campos respectivos. Al finalizar, Jacob se acercó y me comentó que trabajaba con aves migratorias y que se le había ocurrido una idea.Pardelas, albatros y demás parientes
Hay un grupo de aves que son estrictamente oceánicas. Tanto que pueden pasarse semanas en el aire y en el agua y sólo se posan en tierra cuando llega la hora de anidar, que ahí ya no les queda más remedio. En inglés se les llama ocean wanderers, vagabundos del océano. Los albatros son un buen ejemplo: dos o más metros de envergadura y un magnífico dominio del vuelo aprovechando los vientos a baja altura, como haciendo surf sobre las olas.Las pardelas son algo más pequeñas pero como voladores tampoco se les da mal. Tanto es así que a mediados de otoño abandonan sus cuarteles de verano en Baleares, Azores, Cabo Verde o Canarias e inician un viaje de varios miles de kilómetros para llegar a su refugio invernal en las costas de Sudáfrica donde un afloramiento de aguas frías les garantiza alimento. A finales del invierno retornan Atlántico arriba llegando a vagabundear por los límites septentrionales del Mar del Norte.
¿Dónde están las pardelas?
El periodo de cría es la única época en la que estos bichos pueden ser capturados. Los biólogos que se dedican a esto los trincan en sus nidos (lazo al cuello y guantes gordos por si acaso) y les ponen unos artilugios llamados geolocalizadores (bird loggers en guiri). Un geolocalizador es un pequeño aparato electrónico impermeable formado por una batería, una célula fotoeléctrica, un reloj, una memoria, un sensor de agua y un chip que gobierna el conjunto. Los geolocalizadores se fabrican bajo pedido en el Antarctic & Marine Engineering Department y, cómo no, tienen modelos a elegir. El llamado Mk13 mide 20x9x6.5 mm, pesa 1.8 gramos y la duración de su batería llega a los 3 años. Si nos vamos hasta los 3.6 g de peso encontramos modelos con 6 años de batería más un sensor de temperatura.¿Cómo se puede saber donde ha estado un pájaro? El geolocalizador proporciona un registro casi continuo de la luz ambiental similar al de la figura inferior, sólo que de todos los días de un año. Cada minuto se toma una medida aunque sólo se almacena la lectura máxima de luz por periodos de 10 minutos.
Fig. 3. Ejemplo de los datos registrados por un geolocalizador.
En esos tres días del ejemplo tenemos la duración del día y la noche y las horas GMT del orto y del ocaso registradas con el reloj del geolocalizador. Pueden aparecer efectos como en el primer día, donde ha habido dos episodios de nubes que hacen bajar el nivel de luz. Ocasionalmente aparecen luces en la noche que se producen cuando el pájaro se acerca a las pesquerías que usan focos para atraer a los peces. Otras veces la luz oscila en los minutos crepusculares debido a que el pájaro vuela a ras de las olas que ocultan el Sol, muy bajo sobre el horizonte.Dado que conocemos fechas, horas y luz, tenemos todo lo necesario: la latitud se estima por la duración del día y la longitud por las diferencias entre la hora del reloj (TMG) y la hora local (el mediodía local coincide con el punto medio del periodo de luz).
Una consecuencia de este método de medida es que la fiabilidad de las estimaciones es muy baja en los periodos próximos a los equinoccios, cuando el día dura más o menos lo mismo en cualquier latitud y pequeños cambios en la duración del día representan latitudes muy diferentes. Los datos de estos periodos suelen ser descartados. La longitud, en cambio, es bastante más fiable en todo el año ya que depende esencialmente de la exactitud del reloj interno.
Ya de paso contesto a una posible y razonable pregunta: ¿por qué no se usan GPS para marcar las pardelas? Pues por dos razones: son muy caros y pesan demasiado. Los GPS activos o pasivos son mucho más precisos (unas decenas de metros) pero sólo pueden montarse sobre aves grandes, como buitres o albatros. Un peso excesivo puede tener una influencia negativa en la supervivencia del pájaro, algo que lógicamente debe evitarse.
Una ruta extraña
En nuestro trabajo analizamos las rutas migratorias de pardelas que "bajan" desde las Islas Canarias y Azores hasta Sudáfrica y Namibia. La ruta más corta sería hacer un primer tramo hacia el Sur ante las costas de Mauritania y Senegal y, una vez ante el Golfo de Guinea, doblar hacia el Sudeste para ir directamente a las costas de Sudáfrica.Según los datos de los geolocalizadores, las pardelas no hacen esto sino que, pasada Mauritania, atraviesan al Atlántico hacia el Nordeste de Brasil, siguen las costas de este país y a unos 20-25º de latitud Sur giran al Este para volver a atravesar el Atlántico y llegar por fin a su destino. La figura siguiente representa esa ruta.
Resumiendo: las pardelas saben dónde van pero eligen un camino mucho más largo de lo aparentemente necesario.
¿Explica el viento la ruta migratoria?
Suponer que el viaje directo es la solución más económica sólo es correcto en ausencia de viento. En ese caso, el esfuerzo de moverse es igual en todos los lugares y en todas direcciones. En cambio, cualquiera que haya usado una bicicleta sabe que cuando hay viento las cosas cambian en función no sólo de si nos sopla de frente, de lado o de espaldas, sino también de su velocidad.Y sobre el océano hay viento, claro. Por suerte, como ya comenté en otro momento, hay un satélite que lo mide diariamente y cuyos datos son gratuitos y pueden descargarse vía internet. El QuikSCAT toma, entre otras variables, la velocidad y acimut del viento con una resolución de 25 km (12.5 más recientemente). Son cifras y más cifras con las que pueden hacerse mapas como el de la figura inferior.
Buscando respuestas
Si se fijan bien en la figura anterior verán que el viaje directo desde las costas de Senegal hasta Sudáfrica se realizaría con vientos de frente. Estos vientos son constantes y supusieron un obstáculo muy serio a los viajes de los navíos portugueses en su exploración de la costa occidental de África a partir del siglo XV. Los viajes se hacían siempre a la vista de la costa (cabotaje) ya que la navegación de altura era imposible.La hipótesis que nos planteamos comprobar es si los pájaros siguen la ruta de mínimo coste sobre el viento y eso les lleva a elegir rutas aparentemente no óptimas por su gran longitud pero tal vez adecuadas para "surfear" sobre el viento.
Para comprobar esto, seguimos los siguientes pasos:
- Individualizar la ruta de cada pardela y etiquetar cada punto con su localización y su fecha.
- A partir de los datos del QuikSCAT se extraen los vientos para toda la zona para cada día implicado en las trayectorias.
- Se calculan los caminos de mínimo coste matemático para llegar desde Canarias a Sudáfrica en cada día en que los diferentes pájaros están de viaje.
- Se construye un mapa equivalente al mostrado más arriba (Fig. 4) con la concentración de rutas óptimas.
- ¿Se parecen los dos grupos de rutas? Hay que responder a esta pregunta estimando de alguna forma la significación estadística de su similitud (o su diferencia, como se quiera).
Las tareas 1 y 2 son rutinarias y se realizan con programas de SIG (sistemas de información geográfica) y proceso de imágenes. La lectura de los datos QuikSCAT es tediosa porque usan un formato para su distribución que no es fácil de leer (HDF, Hierarchical Data Format) y debe ser transformado dos veces para su proceso con el SIG.
La tarea 3 se realiza en dos pasos. El primero es calcular el coste de llegar desde el punto de salida a cada uno de los demás presentes en la zona de estudio. Estos modelos de coste anisotrópico tienen en cuenta la velocidad y acimut del viento y permiten, en un segundo paso, trazar la ruta óptima entre el punto de salida y el de llegada.Calculadas las rutas óptimas para cada día de viaje (casi un centenar) se construye el mapa general (Tarea 4) mediante una función que usa la densidad de líneas (rutas) en cada punto del mapa. El resultado lo vemos abajo.
Es bastante evidente que las rutas de las figuras 4 y 6 se parecen mucho pero este tipo de percepciones no suele ser aceptada sin algo de estadística que lo justifique. La tarea 5 consistió en desarrollar un test que nos diera una idea de esta que punto la coincidencia en el trazado de las rutas puede deberse al azar.
Este test, en principio, no existe, pero estamos llenos de buenas ideas :-)
La cosa se resolvió de la siguiente manera (estadísticos, afilen sus navajas):
- Las zonas que representan las rutas reales (Canarias) y las alternativas se convierten en sendas líneas trazadas siguiendo las zonas de máxima densidad. Lógicamente, los puntos inicial y final son los mismos.
- Se calcula el área entre estas dos líneas, S(0); este área sería nula si ambas líneas coincidieran lo cual no es el caso.
- Se trazan 10000 rutas alternativas de forma más o menos aleatoria (ver más abajo).
- Se calculan las áreas entre cada una de estas rutas y la ruta óptima, S(1) a S(10000).
- Se ordenan las 10001 áreas de menor a mayor y se localiza la posición de S(0) en el conjunto.
- Esa posición nos da el valor de P y, en nuestro caso, P=0.001. lo que significa que sólo en un caso por cada mil se encontraría por azar una trayectoria real tan cercana o más a la óptima.
Divagaciones
Estos resultados nos están diciendo que las pardelas, que saben a dónde deben llegar, eligen una ruta globalmente óptima, es decir, sin dejarse engañar por las condiciones locales del viento, que en ocasiones podrían animarlas a ir por otro lado. En efecto, otros análisis que no he contado aquí para no alargar la cosa excesivamente muestran que en el día a día, las pardelas no toman necesariamente el camino local óptimo.¿Cómo saben las pardelas dónde está su meta? ¿Cómo saben que no deben ir por un camino muy diferente al del óptimo global? ¿Cómo está "almacenada" la ruta adecuada en sus pequeños cerebros? ¿La aprenden? No tengo ni idea. El caso es que aquí se pueden plantear esos interrogantes y algunos más y, ya de paso, elucubrar como nos pedía uno de los revisores. A mí me gusta la idea de que los puntos de referencia de las pardelas en sus viajes no son fenómenos orográficos o la vista de la costa sino el propio viento, un sistema de referencia dinámico y flexible. Una prueba circunstancial de esto es que no siguen siempre el mismo camino (por ejemplo, no siempre llegan a las costas de Brasil sino que a veces atajan por alta mar) sino que parecen improvisar dentro de un patrón general. Posiblemente esta flexibilidad pueda deberse a que el viento, aunque sigue patrones generales similares, no es e mismo nunca sino que varía día a día y de un año a a otro.
Actualmente estamos comenzando a introducir nuevas variables en la definición de "ruta óptima". Consideramos que las diferencias entre las rutas reales y las supuestamente óptimas se deben a que los pájaros integran también el tiempo de viaje y/o la distancia. Así, hay que buscar una solución de compromiso donde al tiempo empleado y la distancia total penalicen a partir de ciertos umbrales, cosa que ahora no hacemos. Para comprobar este refinamiento de los modelos estamos analizando rutas diferentes de otras especies y pronto empezaremos a trabajar con bichos que atraviesan el Océano Pacífico.
Historia de un fracaso
Desde el 2003 ha pasado ya mucho tiempo. Una parte se invirtió en el análisis de las trayectorias del albatros gigante en el Atlántico Sur. Este gran pájaro anida en Georgia del Sur y se hace unos centenares de km o más para ir a comer de vez en cuando. Nos planteamos la hipótesis de que la selección del lugar de forrajeo estaría condicionada por el viento en esos días. No fue así. El albatros gigante, el maestro del vuelo, hace lo que quiere y cuando quiere. El viento no parece importarle lo más mínimo y aprender eso nos llevó un año de trabajo.
Otros posts sobre vientos:
- Vientos del Oeste: Vito Dumas y su inverosímil vuelta al mundo.
- Vientos del Oeste (2): vientos catabáticos en la Antártida.
30 abril 2008
Lorenz, modelos y gaviotas
Estos días ha muerto Edward Norton Lorenz, algo ya reseñado en muchos blogs y, cómo no, en la Wikipedia. Lorenz fue meteorólogo y nos dejó como legado algunas cosas para pensar. Se le atribuye una famosa frase, parece ser que pronunciada en una intervención en la Academia de Ciencias de Nueva York en 1963:
... if the theory were correct one flap of a seagull's wings would be enough to alter the course of the weather forever.
Por qué las mariposas no condicionan la meteorología o sobre los peligros de tomarse una buena frase literalmente confundiendo de paso modelos y realidad... si la teoría fuera correcta un aleteo de una gaviota sería suficiente para alterar el curso del clima para siempre.
La frase anterior, con el tiempo, ha ido cambiando (mariposa o gaviota, Brasil o Hong-Kong...). El caso es que se refiere a algo concreto y muy interesante. La historia es conocida pero la resumo aquí brevemente para luego discutir, desde mi visión de lego, algunas implicaciones de la misma.
Cuando Lorenz hacía modelos de convección
En 1960 Lorenz intentaba simular groseramente algunos aspectos de la dinámica atmosférica con un primitivo ordenador (he leido que tenía 4 kb de memoria). En concreto, trabajaba con sólo tres ecuaciones diferenciales con las que se aproximaba a las ecuaciones de convección de Rayleigh-Bénard. Los cálculos proporcionaban largas secuencias de números en las que las variables implicadas iban cambiando de valores en el tiempo. Las simulaciones duraban mucho tiempo y un día Lorenz decidió reiniciar una de ellas. En vez de comenzar de nuevo desde el principio y repetir los primeros cientos o miles de pasos introdujo manualmente los valores correspondientes a un paso intermedio y arrancó de nuevo el proceso. Observó que ahora los resultados divergían poco a poco de los calculados en el experimento anterior hasta hacerse completamente diferentes.
¿Cómo podía una simulación determinística dar resultados diferentes partiendo de los mismos datos? La explicación era simple aunque algo sorprendente: los datos no eran exactamente los mismos. En efecto, el ordenador trabajaba con 6 dígitos decimales pero sólo imprimía tres (algunas fuentes dicen cinco), los que Lorenz había tecleado en el intento de réplica. Y esa diferencia minúscula en los datos de entrada, 0.654209 frente a 0.654 por ejemplo, acababa generando resultados completamente diferentes. Esto no ocurre en todos los modelos sino sólo en algunos que se muestran especialmente sensibles a las condiciones iniciales.
Lorenz sacó de esa experiencia la consecuencia de que la dinámica meteorológica no podía conocerse mediante modelos ya que no se podía huir de que mínimas variaciones en los datos originales produzcan modelos divergentes sin relación probable con lo que luego pase realmente. Y así lo escribió en un artículo de 1963:
[our results] indicate that prediction of the sufficient distant future is impossible by any method, unless the present conditions are know exactly.
Edward N. Lorenz, 1963, Deterministic Nonperiodic Flow, Journal of Atmospheric Sciences, 20(2): 130-141.
Lorenz dio forma al asunto en una reunión de la AAAS en 1972. En el título ha desaparecido ya la gaviota en beneficio del dichoso lepidóptero:
Lorenz, E.N., 1972, Predictability: Does the flap of a butterfly’s wings in Brazil set off a tornado in Texas? 139th Meeting of the AAAS, december 29, 1972, Washington, D.C.
Esta intervención no fue publicada nunca aunque por suerte se recuperó e imprimió en 1993 como apéndice del libro
E. Lorenz, 1993, The Essence of Chaos, University of Washington Press: London.
El enlace permite descargar el libro electrónico en formato djvu.
En esa intervención Lorenz no respondió explícitamente a la pregunta que le da título aunque la tradujo a un formato algo más técnico ¿es el comportamiento de la atmósfera inestable ante perturbaciones de pequeña amplitud?
Cuando el autor de este blog se mete en un charco
A eso se le llama hoy "sensibilidad a las condiciones iniciales" y es una propiedad cuya magnitud debe analizarse siempre que se construyen modelos dinámicos para valorar la robustez de sus resultados. Lorenz comenta, en efecto, que el grueso de sus conclusiones se basa en las simulaciones numéricas de la atmósfera.
Y ese, en mi opinión, es el problema (y ahora es cuando empiezo meterme en líos): esa sensibilidad es una propiedad de las ecuaciones usadas en el modelo, no necesariamente de la realidad. Parece, una vez más, la tendencia a confundir los modelos y el objeto modelado, asignándole al segundo todas las propiedades que emanen del primero.
Eso nos lleva a discutir dos cuestiones diferentes: la primera es dar respuesta a la famosa pregunta ¿puede un aleteo de mariposa en Brasil provocar un tornado en Texas? Y esa respuesta es no. En realidad esto ya lo dijo Lorenz pero, como siempre, las frases otundas suelen ser adoptadas literal y erróneamente por la posterioridad.
¿Por qué una mariposa en Brasil no puede desencadenar (o prevenir) un tornado (o cualquier otra cosa) en Texas? La tentación es decir "sí puede, ahí tienes los resultados del modelo". Pero eso sólo prueba el comportamiento del modelo, no de la atmósfera. Un modelo es una representación simplificada de la realidad y como tal suele diseñarse en un escenario "limpio", reduciendo variables y simplificando ecuaciones. La realidad, por su parte, está influida por millones de variables con un comportamiento fuertemente estocástico. En ese entorno, nuestro aleteo de mariposa se pierde de forma inmediata y no puede generar efectos sensibles en esa mezcla de millones de variables con valores aleatorios. La idea es que una perturbación en un sistema como el atmosférico tiende a amortiguarse y perderse como un estornudo en el ambiente ruidoso de una gran ciudad.
La otra cuestión es si el tiempo puede predecirse con seguridad mediante modelos y en qué circunstancias. Por el momento sabemos que el tiempo no es predecible más allá de unas pocas horas, unos días a lo sumo. Sin embargo, eso no se debe a que la atmósfera se comporte como el modelo que la simula sino a que nuestro modelo se alimenta de información dispersa y deficiente. Aquí hay un efecto interesante, al menos en mi opinión: si nos dan las condiciones atmosféricas de dos dias distintos separados por un intervalo de tiempo de, supongamos, 10 días, podremos estimar las condiciones intermedias entre ambos días con razonable exactitud. Sin embargo, ese mismo modelo no podrá darnos información fiable a diez días vista en el futuro. En el primer caso, conocemos el origen y el final del proceso y la simulación puede apoyarse en ambos extremos: las incertidumbres no pueden propagarse en el modelo de forma incontrolable ya que hay un final conocido que debe producirse.
En el segundo caso, sin embargo, sólo fijamos el origen y dejamos libre el proceso de forma que, al cabo de 10 días, la propagación de las incertidumbres asociadas a los datos iniciales hacen que las previsiones sean muy probablemente irreales. No se trata del "efecto mariposa" sino de la incapacidad de "extrapolar" con exactitud a partir de modelos excesivamente simples en sus ecuaciones y afectados por fuertes incertidumbres en los datos. Esa divergencia puede reducirse (y se ha hecho) con mejores datos y ecuaciones pero es inevitable ante sistemas tan complejos como la atmñosfera.
Digresión: por ese motivo, a mí me gusta entender los modelos de cambio climático actualmente tan en boga como generadores de escenarios, no como predictores de una realidad futura.
Para terminar, me gustaría hacer una reflexión algo más filosófica sobre el uso que he visto en algunos lugares del verbo cambiar: ni el aleteo de una mariposa ni la caída de un meteorito pueden cambiar nada porque no ha existido nunca una realidad alternativa con la cual comparar. Los modelos son replicables pero la realidad es única y sólo se presenta de una forma. Las alternativas son construcciones mentales, no realidades.
Otros blogs en español que han tocado el tema: Juan de Mairena, Curioso pero inútil e Historias de la Ciencia.
26 agosto 2007
¿Vida inorgánica?
Estos días se ha levantado cierto revuelo en internet sobre un trabajo publicado en el New Journal of Physics. La referencia concreta es la siguiente:
Tsytovich, V.N.; Morfill, G.E.; Fortov, V.E.; Gusein-Zade, N.G.; Klumov, B.A.; Vladimirov, S.V., 2007, From plasma crystals and helical structures towards inorganic living matter, New J. Phys., 9(8): 263-274.
El artículo puede descargarse completo en el enlace del título ya que la revista es de libre acceso.
El meollo de la cuestión es que Tsytovich y colegas dicen que han encontrado estructuras en el polvo espacial que tienen propiedades que asignamos a la "vida". La noticia ha dado lugar a comentarios como, por ejemplo, este:
Hallan en partículas inorgánicas de polvo espacial todas las propiedades de la vida
¿Puede la vida extraterrestre florecer a partir de pequeñas partículas inorgánicas de polvo interestelar? Esa es la pregunta que atormenta a los investigadores después de haber realizado un descubrimiento, cuando menos, intrigante: una serie de estructuras procedentes del espacio exterior que, a pesar de no estar basadas en el carbono, tienen características muy parecidas a las mostradas por las moléculas orgánicas que aquí, en la Tierra, dan sustento a la vida (ABC.es)
Normalmente, los noticieros y los blogs se han limitado a repetir la noticia con más o menos detalles. Pocos se han decidido a comentarla, de hecho sólo he encontrado a uno, Juan José Ibáñez, en cuyo blog aprendo mucho de edafología. Juanjo elabora dos posts (uno y dos) donde se muestra estusiasmado con los descubrimientos y se extraña de la poca repercusión del trabajo al menos en nuestro país. "¿Somos tan paletos?" pregunta.
Creo que no o, en todo caso, yo soy uno de ellos porque no me entusiasma la publicación de Tsytovich y colegas por los motivos que expondré después. Vaya por delante que el tema básico entra completamente en mi amplio campo de incompetencia pero hay cosas que creo que pueden ser comentadas a pesar de todo. Intentaré explicar primero la cuestión en términos generales extrayendo fragmentos del resumen:
Toda la vida terrestre está basada en el carbono y sus compuestos y no conocemos excepción a eso. Tsytovich et al. dicen que conjuntos de partículas en plasmas complejos pueden autoorganizarse de forma natural formando estructuras helicoidales con propiedades que suelen usarse para definir lo que llamamos "vida". Estas estructuras interactúan mostrando propiedades termodinámicas y evolutivas exclusivas de la materia viva. Por ejemplo: bifurcaciones que actúan como "marcas de memoria", autoduplicación, tasas metabólicas en un sistema termodinámico abierto... Y concluyen que estas estructuras poseen todas las propiedades necesarias para calificarlas como "vida inorgánica" con posible existencia en el espacio.
Verán que la cosa es muy fuerte. De hecho Tsytovich y colegas mencionan al final del artículo que la vida inorgánica tal vez haya "inventado" la orgánica.
En fin, asumiendo el riesgo de columpiarme y de romperme la crisma, al menos seré sincero: mi impresión es que Tsytovich y colegas han hecho un artículo que no es mucho más que una elucubración.
La primera cuestión, esencial, es que los autores no han descubierto nada real. La noticia no existe tal como se plantea. Los resultados que presentan no responden a observaciones reales sobre la materia sino a simulaciones realizadas con un ordenador. Ya he manifestado antes en otros posts de este blog que las simulaciones no tienen valor de demostración. Como mucho, son prospecciones sometidas a los riesgos inherentes a los modelos, cuya relación con el objeto real debe ser comprobada, cosa que no se ha hecho en ese trabajo.
La segunda cuestión, tampoco banal, es que no hay evidencia de que las estructuras reales tengan las propiedades que aparecen en algunas de las simulaciones. De hecho, ni siquiera me queda claro que la existencia de estructuras helicoidales iguales a las simuladas esté confirmada.
Y la tercera cuestión es sobre la transmisión de información contenida en las estructuras helicoidales, cuestión que sería esencial para hablar de "vida". Según los autores, las estructuras pueden tener "bifurcaciones" —dos estados de diferente diámetro― cuya secuencia podría codificar información. Pero hasta donde entiendo, no se ha demostrado que contengan información alguna y mucho menos que esa información sea relevante para una posible replicación y éxito en un mecanismo de competencia tampoco descubierto.
Creo que con cualquiera de esas tres objeciones la espectacularidad de algunos titulares y declaraciones del autor principal quedan algo aguadas. También quiero comentar un detalle que creo manifiesta un deseo de llamar la atención algo fuera de lugar: se insiste que las estructuras helicoidales son "similares a las del ADN".
"Similar al ADN" es una frase espectacular pero gratuita ¿similar en qué? Pues de lo leido, la "similitud" no es más que formal y relativa al aspecto helicoidal ya que lo poco que comentan sobre la posible replicación, además de ser puramente especulativo, no tiene nada que ver con lo que se conoce del ADN, su estructura y su funcionamiento. Eso sí, llama la atención. Pero además ¿sería realmente relevante esta similitud? Según ellos, estamos hablando de "vida" esencialmente diferente de la conocida hasta ahora por lo que, al menos en mi opinión, la estructura replicante podría tener cualquier forma siempre que se mostrara su funcionalidad para el objetivo de la replicación —cosa que aquí no se ha producido—. Que fuera o no helicoidal no añadiría ni quitaría verosimilitud. Por cierto, el ADN es una molécula y nadie hasta donde conozco le atribuye la propiedad de estar viva como pretende Tsytovich con sus hélices.
En fin, que mi impresión del artículo es que los autores se han dejado arrastrar por un estusiasmo que no parece justificado por lo que describen. Seguramente esté yo equivocado, el tiempo lo dirá, pero hay un tufillo a amarillismo científico que debería disiparse. Mientras tanto, no parece que haya habido reacciones al trabajo salvo las repetitivas notas de prensa y blogs. A ver si en los próximos números de New Journal of Physics se abre algún debate o todo se diluye en un vórtice de polvo virtual.
Para terminar, quisiera dejar claro que no tengo mayores razones para negar la posible existencia de vida extraterrestre ni, supuesta ésta, de vida no basada en el carbono. Es una de esas posibilidades sobre las que no existe evidencia ni a favor ni en contra por lo que afirmar o negar carece de sentido.
Nota: el artículo parece basarse en las observaciones de The Plasma Crystal Experiment que se lleva a cabo en la Estación Espacial Internacional con el objetivo de estudiar el comportamiento del plasma en condiciones de microgravedad. Tsytovich no parece pertenecer a este grupo aunque alguno de los coautores sí.
10 marzo 2007
Cenizas, lava y computación en paralelo
Según nuestro calendario actual, el 24 de agosto del año 79 se produjo la erupción explosiva del volcán Vesubio, que lanzó al aire toneladas de materiales e hizo que bajara por sus laderas un flujo piroclástico mortal. Arrasó Pompeya, Herculano, Stabia y otros pueblos menores. Entre las víctimas estuvo Cayo Plinio Segundo, llamado el Viejo, el autor de la Historia Natural. Plinio el Viejo, movido por su curiosidad sin límites, se acercó al lugar para observar el fenómeno, lo que le costó la vida.
La historia de estas ciudades y de su final es conocida pero la tragedia sigue ejerciendo un extraña atracción. Películas, novelas... El último capítulo está escrito por Augusto Neri y colegas, que acaban de publicar en Geophysical Research Letters un trabajo titulado "4D simulation of explosive eruption dynamics at Vesuvius".
En él, modelan la erupción del Vesubio y el resultado no puede ser más sugestivo y espectacular.
GRL permite el acceso al trabajo y a los videos a través del enlace anterior. Dicen Neri et al. (1):
We applied a new simulation model, based on multiphase transport laws, to describe the 4D (3D spatial coordinates plus time) dynamics of explosive eruptions. Numerical experiments, carried out on a parallel supercomputer, describe the collapse of the volcanic eruption column and the propagation of pyroclastic density currents (PDCs), for selected medium scale (sub-Plinian) eruptive scenarios at Vesuvius, Italy.Para las simulaciones han utilizado el supercomputador IBM p5-575 del consorcio CINECA formado por 28 universidades italianas. El aparato tiene 512 procesadores y 1.2 Tb de RAM lo que le permite alcanzar 3.89 Tflops (flops es el acrónimo de floating point operations per second, es decir, operaciones con números reales). Todo esto era probablemente necesario dado que los autores comentan que fueron necesarias 14 h de proceso para cada segundo de animación.
Los videos son grandes; caso de elegir yo les recomiendo este, de algo más de 11 Mb, en formato mpg y que dura 24 segundos. Les pongo abajo una instantánea del mismo para que vayan poniéndose en situación.
Las erupciones del Vesubio se han repetido en numerosas ocasiones. La última fue en 1944, en plena Guerra Mundial. Suele decirse que dicha erupción dañó gravemente a un escuadrón de bombarderos norteamericanos B-25 pero sin dejar claro que no estaban en vuelo sino en tierra ya que habían ocupado la zona en septiembre del año anterior. Los daños fueron provocados por a acumulación de cenizas y lapilli sobre ellos.
Que el volcán siga activo y que vivir a su lado sea un riesgo evidente no ha sido obstáculo para que Nápoles, con casi un millón de habitantes haya crecido a pocos km de su cráter. Una de tantas demostraciones del sinsentido de nuestras conductas.
A pesar de su fama, el Vesubio ha producido por el momento muchas menos víctimas que el tsunami del 26 de diciembre de 2004 en el Océano Índico. En Teaching Geoscience with Visualizations tienen varias animaciones e imágenes que reconstruyen esta reciente tragedia.
(1)
Neri, A., T. Esposti Ongaro, G. Menconi, M. De'Michieli Vitturi, C. Cavazzoni, G. Erbacci, and P. J. Baxter (2007), 4D simulation of explosive eruption dynamics at Vesuvius, Geophys. Res. Lett., 34, L04309, DOI:10.1029/2006GL028597.
13 enero 2007
Congreso en Mérida
Hablaremos esencialmente de métodos mediante los cuales los sistemas de información geográfica y la teledetección pueden ser aplicados a la resolución de problemas en ecología. La página del congreso es esta y la de nuestro grupo de investigación, bautizado Kraken, esta otra. Somos primerizos y debo reconocer que ya he pasado alguna noche de sueño de baja calidad debido a este asunto pero estoy seguro de que merecerá la pena.
04 enero 2007
Modelos, realidad, incertidumbre… y Turing de nuevo
Antes de seguir no me resisto a incluir aquí una de las frases lapidarias atribuidas a Dijkstra (no verificada) y sacada de las Wikicitas a propósito de nuestro debate:
«La pregunta de si un computador puede pensar no es más interesante que la pregunta de si un submarino puede nadar.»Pero sigamos. Quería desarrollar uno de los párrafos de Pedro en los comentarios al post anterior:
Lo que él [Turing] propone es análogo a la confrontación de un modelo con la realidad en el método científico: diseñar experimentos para comparar lo que hace el modelo con lo que hace la realidad, y si no somos capaces de falsar la hipótesis de que el modelo reproduce el comportamiento real, nos quedamos con el modelo.No me gusta demasiado la última frase porque creo que se refiere a situaciones conceptualmente irreales y que cuando usamos modelos en la investigación no procedemos así. A ver si me explico comentando algo sobre objetivos y métodos de modelado (RAE dixit) aunque es difícil sintetizar esto en dos páginas.
Usamos los modelos como recurso para simplificar la forma, estructura o funcionamiento de objetos y procesos reales y, así, poder deducir o conocer algunas de sus propiedades con más comodidad: la complejidad de la realidad hace incómodo (o imposible) someterla a experimentación directa y usamos una simplificación. Para que este método funcione es necesario suponer que la simplificación de la realidad no penaliza excesivamente la exactitud del resultado. Lógicamente, esta suposición no puede hacerse sin más y debe comprobarse y valorarse cuantitativamente siempre.
Aceptamos por tanto que lo que genera el modelo (resultados) será similar a lo que generaría el objeto real en las mismas condiciones de experimentación (escenario) y utilizamos los resultados dándoles un valor de verosimilitud. Pero esta suposición debe tomarse con pinzas y tener en cuenta:
- Que el escenario es a su vez un modelo de las condiciones reales, simplificado y truncado, por lo que no puede ser asumido directamente como “real”.
- Que, consecuentemente, los resultados se generan condicionados por la calidad del escenario, de los modelos de los objetos (a través de datos) y de los modelos de los procesos (a través de ecuaciones o algoritmos que las traducen al lenguaje informático).
Para saber si podemos usar un modelo es necesario estimar la similitud del resultado modelado respecto al resultado real y valorar si ese resultado nos es útil y para qué.
Esto puede realizar de dos formas:
- Cuando es posible, contrastando una pequeña parte de los resultados modelados con resultados reales (muestra de contraste).
- Cuando no es posible, realizando un análisis de sensibilidad (aunque éste debe hacerse siempre).
Este modelo tiene la bondad de ser contrastable: iríamos a varios lugares de características diferentes, pondríamos termómetros a varias profundidades y contrastaríamos las temperaturas reales con las predichas. Las divergencias nos permitirían dar valores de incertidumbre a los resultados mediante, por ejemplo, un intervalo de confianza al 95%. Los resultados adoptarían la forma, por ejemplo, de 13.2±1.5 ºC (I.C.: 95%). Lógicamente, el valor de incertidumbre puede no ser constante sino función de la temperatura y de los valores de conductividad o de sus combinaciones…
La idea fundamental es que conocemos hasta dónde llega la exactitud de los resultados modelados. Si nos vale o no es otra cuestión y depende de nuestros objetivos: habrá trabajos que soporten esa incertidumbre y otros que no.
Segundo ejemplo, más de moda que el anterior: predicciones de cambio climático. Resulta que aplicamos el modelo X de predicción de cambio climático y encontramos que en una zona determinada X predice una subida de 3.0 ºC en los próximos 80 años. ¿Cómo puedo saber si este resultado es fiable? Pues lamentablemente este modelo no es contrastable y no podemos, en principio, saber hasta qué punto es fiable. ¿Estamos perdidos? No del todo, podemos hacer una prueba que nos va a dar información indirecta sobre el asunto. Sería la siguiente: si el modelo X usa n variables xi (i=1..n) como entrada, vamos a hacer mil réplicas del proceso de modelado. Lógicamente, esos mil valores de temperatura que resultan serían iguales pero en estas réplicas vamos a cambiar esos valores originales añadiéndoles una desviación aleatoria: xi + ei . Esa desviación ei estará dentro del rango de incertidumbre de la medida xi. ¿Y cómo sabemos esa incertidumbre? Midiendo repetidas veces el valor xi en la realidad. Es decir, asignamos una incertidumbre a cada uno de los datos de entrada. En nuestro caso, si una de las entradas es la transparencia de la atmósfera habrá que medirla unos cientos de veces y calcular el valor medio y la incertidumbre asociada. Los modelos de cambio no se harán introduciendo repetidamente el valor medio sino muchos valores posibles calculados a partir de la incertidumbre de la medida. Y todo esto para cada variable y valor de entrada en el modelo X.
Este procedimiento nos permitirá ver, analizando los resultados, varias cosas. Entre ellas cuál es la variación en esos resultados. Cabe que esa subida de 3.0 sea, en realidad 3.0±0.3 ºC o cabe que sea 3.0±5.3 ºC. En este segundo caso el modelo no nos vale para nada que se me ocurra.
Otra cosa que podemos ver es si hay variables críticas, es decir, variables cuyas variaciones implican cambios relativamente mayores en los resultados que otras. Esas variables deben ser medidas con mayor exactitud que el resto (o dicho de otra forma, los otros pueden ser medidos con menos exactitud) lo que facilita la eficaz distribución de recursos a la hora de planificar la toma de datos.
Este análisis debe hacerse siempre, no sólo cuando el modelo no es contrastable, porque la información que nos proporciona es enormemente útil.
Dado que los modelos imitan el comportamiento de los sistemas reales sólo aproximadamente debemos analizar cuidadosamente qué modelo es adecuado para el objetivo que perseguimos y hasta que punto los resultados son de suficiente calidad.
Enlazando con el asunto del test de Turing, que un modelo haga buenas predicciones o proporcione buenos resultados no significa que funcione igual que la realidad. Por eso, la frase de Pedro mencionada al principio “si no somos capaces de falsar la hipótesis de que el modelo reproduce el comportamiento real, nos quedamos con el modelo” yo la entiendo como “si no encontramos diferencias entre los resultados del modelo y los resultados reales, aceptamos el modelo como buen generador de resultados”. Pero no podemos ir más allá y suponer que los mecanismos que generan resultados en el modelo y en la realidad son los mismos. De hecho, por la propia definición de modelo, nunca lo son. No lo sería ni siquera si el ordenador fuera inteligente porque suponer que su inteligencia fuera humana es de un antropocentrismo insostenible. De ahí mi objeción de ET al test de Turing que propuse días atrás y que hasta el momento no ha sido criticada :-)
Nota: más cosas sobre este tema han sido tratadas hace poco en CPI y en Malaciencia donde Remo y Alf han presentado aspectos distintos del asunto con ejemplos que van desde sistemas planetarios hasta el cambio climático.