30 mayo 2008

Mosquitos de diseño

A modo de segunda parte o ampliación del post Modificación genética contra el dengue.

En el post anterior, aunque no dí las siglas, comenté la técnica denominada ABC (Autocidal Biological Control) como opción ante la más clásica SIT (Sterile Insect Technique) a la hora de reducir o erradicar poblaciones de insectos (mosquitos en el ejemplo).

El ABC se basa en la existencia de GLC: gen letal condicional. Un GLC es un gen que provoca la muerte del portador sólo cuando se dan ciertas condiciones ambientales (temperatura, dieta...).

El primer gen letal condicional que no interfería negativamente en la reproducción fue el llamado notch, descubierto en la omnipresente y nunca bien ponderada mosca de la fruta (Drosophila melanogaster). Notch impide el desarrollo larvario de los individuos heterozigóticos a temperaturas bajas mientras que no interfiere a temperaturas ambientales normales o altas. Thomas A. Miller, de la Universidad de California, comenta que mezclando a partes iguales poblaciones notch homozigóticas con otras libres de notch consiguieron su extinción en sólo tres generaciones. Debe quedar claro que es necesario reintroducir las moscas modificadas en cada generación, no basta con una única suelta.

El genetista Luke Alphey mencionado en el post anterior descubrió el segundo GLC, llamado nipper, también en la mosca de la fruta. Este gen puede ser introducido funcionalmente en otras especies y provoca la muerte larvaria, como ya hemos comentado, a menos que la dieta incluya el antibiótico tetraciclina, ausente en condiciones naturales. El gen ha sido introducido en mosquitos para crear poblaciones de MGM (mosquitos genéticamente modificados) y se ha visto que su efecto es el mismo que en las moscas.

En el post anterior Anna hacía una pregunta pertinente ¿qué ocurre con el pequeño porcentaje de larvas de MGM que por alguna razón no mueren a pesar de la ausencia de tetraciclina?

No he encontrado la respuesta explicita a eso por lo que propongo la mía. Estos casos se deben a la no expresión del GLC y en realidad no pasa nada: estas larvas pasan a formar parte de la población normal y si llegan a adultas no habrá especial diferencia entre ellas y el resto. Cuando nuevos individuos transgénicos sean introducidos en la generación siguiente se cruzarán con ellos en el mismo porcentaje que la población normal y sus descendientes se verán igualmente afectados. Es decir, es como si en la primera introducción hubiéramos soltado un 96-97% de adultos transgénicos y un 3-4% de no transgénicos. El decaimiento poblacional no debe verse afectado significativamente por ese 3-4% de "fracasos".

Esto sería en el mejor de los casos para las larvas en cuestión porque es posible que ese gen acabe expresándose en otra generación posterior.

De todas formas, la propagación/penetración de los transgenes en las poblaciones de mosquito no se conoce bien y es necesaria mucha más investigación. Los modelos matemáticos predicen un éxito claro de la estrategia pero, hasta donde he visto, trabajan con la hipótesis de apareamientos al azar. Esto es probablemente falso en cierta medida y podría modificar la dinámica del proceso.

Hay más circunstancias potencialmente influyentes. Por ejemplo, es importante saber que los pesticidas funcionan eficazmente con altas densidades de insectos y muy poco eficazmente cuando estas disminuyen. En cambio, el ABC lo hace al revés: son muy eficaces con densidades bajas de poblaciones naturales, las más difíciles de combatir mediante venenos. Esta eficacia se potencia con la proporción de suelta de machos estériles, como mínimo un 2:1 respecto a los machos naturales, frecuentemente más. Lógicamente esta proporción es más fácil de aumentar cuanto menor sea la población natural.

La estrategia ABC es aún más prometedora según un estudio sobre dispersión de Aedes aegypti que concluye que estos mosquitos, muy ligados a las poblaciones humanas, apenas se mueven unas decenas de metros. Esta circunstancia reduciría la tasa de recambio desde otras poblaciones naturales y permitiría periodos libres de mosquitos más largos.

Por terminar: todo esto nos parece algo ajeno a los españoles debido a que estamos fuera de las zonas de riesgo. Pero las parajodas de la vida hacen que Aedes albopictus, aka mosquito tigre, se haya instalado ya en el Este de España (año 2004) y se esté extendiendo. A ver si nos vamos tomando en serio estas cosas aunque sólo sea por egoísmo.

27 mayo 2008

Modificación genética contra el dengue

La precaución ante las modificaciones genéticas de organismos es necesaria pero los beneficios de dichas alteraciones pueden ser enormes y no cabe descartarlas sin más (aunque tampoco aceptarlas sin más).

En algunas otras enfermedades, las modificaciones genéticas pueden ser vitales (literalmente hablando). El último ejemplo es el del combate contra el dengue, una enfermedad causada por virus transmitidos por mosquitos de la especie Aedes aegypti.

Aedes aegypti

El dengue es un ejemplo de enfermedad que no puede tratarse directamente por lo que es necesario combatirla de otras formas. Una alternativa utilizada desde hace tiempo es, si se conoce el vector trasmisor de la enfermedad, reducir o erradicar sus poblaciones. En el caso del dengue son los mosquitos por lo que la primera posibilidad es buscar y eliminar sus zonas de cría o usar mosquiteras impregnadas de insecticida.

Otra opción es una suerte de "guerra reproductiva" mediante la suelta de machos esterilizados por irradiación. Esta estrategia ha sido útil en casos como la crisis de California provocada por la "medfly" (Mediterranean fruit fly, mosca de la fruta Ceratitis capitata) una plaga devastadora que arrasó los frutales de la costa oeste de los EE.UU. en varias ocasiones, especialmente a finales de los 80 del siglo pasado. Con las moscas se dan dos circunstancias convenientes: las hembras sólo copulan una vez y los machos irradiados son tan competitivos que los no irradiados. De esta forma, soltando cientos de millones de machos estériles, la fecundidad de las poblaciones cae en picado porque muchas hembras pondrán huevos que no han sido fecundados.

Esta solución es adecuada pero con Aedes aegypti no funciona ya que los machos irradiados no son competitivos y los normales les ganan por goleada a la hora de aparearse. Había que buscar un método alternativo a la esterilización.

Uno de ellos se ha desarrollado en Oxitec, una empresa fundada por un genetista de la Universidad de Oxford llamado Luke Alphey. La técnica es modificar el ADN del insecto introduciendo un elemento (transposón) denominado LA513. Los insectos que portan LA513 son fértiles pero en el estado larvario tienen una necesidad ineludible y curiosa: necesitan comer tetraciclina. El mecanismo es bastante críptico para los que no estamos en estos temas y me resulta difícil explicarlo con claridad. A ver si algún especialista se anima a redactar un párrafo que se entienda basándose en este trabajo.

La idea es que en el laboratorio se les proporciona la tetraciclina en la dieta y se consiguen sin problemas generaciones sucesivas de millones de adultos fértiles. Sin embargo, si se deja de proporcionar tetraciclina sólo un 3-4% sobrevive a la etapa larvaria de la siguiente generación, mientras en los insectos normales lo harían un 86-88%. Tanto en el caso concreto del Aedes aegypti como en otros vectores similares, la idea es introducir en las poblaciones naturales mosquitos genéticamente modificados para provocar un decaimiento general de la población ya que no existe posibilidad de que su dieta contenga tetraciclina. Este mismo procedimiento está siendo estudiado para el control de la malaria, enfermedad que causa mucha mayor mortalidad que el dengue y cuya vacuna se resiste a aparecer.

La eficacia de esta estrategia en condiciones naturales aún no se ha probado. Hasta el momento sólo se tienen buenas perspectivas basadas en modelos matemáticos de la dinamica poblacional.

Las organizaciones ecologistas y mucha otra gente preocupada por el medio no suelen ver con buenos ojos este tipo de estrategias ya que sospechan de efectos imprevistos cuando las poblaciones modificadas sean liberadas en los ecosistemas tropicales. En este caso concreto parece haber pocos riesgos ya que el mosquito está "condenado" a morirse rápidamente y sus larvas también antes de llegar a adultos. Sin embargo, por motivos prácticos sería conveniente que los primeros ensayos se hicieran en islas donde pudiera hacerse un seguimiento más preciso de la dinámica de las poblaciones locales.

En el otro plato de la balanza están los estimados 50 millones de casos anuales en el mundo, incluyendo unos 400000 de dengue hemorrágico, una variante más grave. De cualquier modo, la "guerra reproductiva" de alta tecnología debería estar siempre ligada a medidas más simples: la mejora de las condiciones de higiene y a medidas preventivas que sólo pueden implantarse erradicando la pobreza extrema y el hacinamiento.

Entrada relacionada sobre mosquitos resistentes al plasmodio de la malaria.

26 mayo 2008

Máster en biodiversidad en áreas tropicales

Os comento la existencia del Primer Máster en Biodiversidad en Áreas Tropicales y su Conservación, organizado por el Real Jardín Botánico de Madrid.
Se trata de un master oficial, con titulación de la Universidad Internacional Menéndez Pelayo (UIMP-MEC) con la financiación del Consejo Superior de Investigaciones Científicas (CSIC) y la participación de la Universidad Central del Ecuador y otras 16 universidades e instituciones científicas europeas y americanas. El profesorado procede de cinco países, y los alumnos pueden optar a becas y ayudas.
Las clases teóricas, seminarios, enseñanzas prácticas de laboratorio, debates y conferencias invitadas se desarrollarán en las instalaciones de la Universidad Central del Ecuador, del CLIRSEN y de las estaciones biológicas administradas por la Fundación Jatún Sacha, todo ello en uno de los países con mayor biodiversidad de todo el planeta: Ecuador.
Toda la información, programa, preinscripción, precios, profesorado, becas... pueden encontrarse en la página del Máster.

24 mayo 2008

Una explosión de diseño

Hay un grupo de algas unicelulares que tienen el pintoresco nombre de cocolitofóridos. Son tan abundantes en el plancton marino como desconocidas para los no especialistas y hoy se las traigo aquí para que vean sus sorprendentes diseños. Forman parte de un filum llamado Haptophyta y su interés estético se debe a que cubren su minúscula personalidad con placas de carbonato cálcico de formas a la vez complejas y elegantes.

También tienen interés biológico por muchos motivos. Uno de ellos es su propensión a desatar explosiones poblacionales cuando las condiciones ambientales son especialmente favorables (vamos, algo similar a la plaga de topillos del verano pasado en Castilla pero con unas dimensiones gigantescas). Estas algas se hacen tan numerosas durante un tiempo que son perfectamente detectables desde los satélites debido a la reflectancia de su cubierta de carbonato cálcico. La imagen de abajo es una de estas explosiones poblacionales detectada en el mar de Bering en abril de 1995.El color turquesa que caracteriza la mayor parte del mar visible se debe a los cocolitofóridos. Estos fenómenos suelen tener una duración de entre uno y dos meses y pueden extenderse sobre enormes áreas: uno que ocurrió en el Atlántico Norte, al Sur de Islandia, en junio de 1998 ocupó algo más de 995000 km 2.

En color turquesa se aprecia la explosión de cocolitofóridos en el Mar de Bering en abril de 1995. Imagen tomada por el sensor SeaWifs (original en Ocean Color: The Bering Sea).

Los diseños de estos organismos son espectaculares, tanto más si pensamos que apenas llegan a unas centésimas de milímetro. Las imágenes siguientes están tomadas de la Picture Library del Natural History Museum de Londres (incluidas las marcas de agua).

¿Cuál es el sentido de estos diseños? Creo que simplemente ninguno. La naturaleza tiene cierta tendencia a permitir la fantasía mientras ésta no esté reñida con la supervivencia y todo cabe.

21 mayo 2008

Software libre, según para quién

Google Code es un servicio de Google para alojar código y proyectos de aplicaciones. Muchas de estas se acogen a licencias Open Source como GNU General Public License (una entre muchas otras).

En la sección Open Source Definition de la Open Source Initiative se señala, en su cláusula quinta:

  • The license must not discriminate against any person or group of persons.
  • La licencia no debe ejercer discriminación sobre ninguna persona o grupos de personas.

El problema surgió con un programa llamado Sextante, desarrollado en la Universidad de Extremadura. Sextante es un Sistema de Información Geográfica acogido a una licencia GNU/GPL y que se ha integrado en otro sistema llamado gvSIG (también GNU/GPL).

En uno de los correos del foro, un colega comentaba que no podia usar Sextante ya que a la hora de descargar el código le aparecía este mensaje:

You are accessing this page from a forbidden country.

El mencionado colega es cubano.

Y la explicación es que mientras la web de Sextante está alojada en España, el código lo está en el mencionado Google Code que está sujeto a la normativa de los EE.UU. que es donde Google tiene sus servidores. Dicha normativa mantiene la prohibición de acceso a países malignos entre los cuales está Cuba.

Revisando correos y comentarios me he encontrado con que estas restricciones afectan a software que todos apreciamos como la quintaesencia de la "libertad" y/o de la innovación; por poner sólo dos ejemplos:

En fin, que el software libre lo es pero no tanto, aún falta voluntad y convicción. Por cierto, que las listas de destinos prohibidos son monumentales, no sólo figuran países sino empresas y personas con sus nombres y direcciones. Una auténtica lista negra.

18 mayo 2008

Sea doctor sin esfuerzo (o casi)

¿Pasándolas canutas con la tesis? ¿Se le han muerto todas las Drosophila en el corte de luz del fin de semana? ¿Le ha entrado un virus simultáneamente a su ordenador y a las copias de seguridad? ¿Que no tenía usted copias de seguridad, dice?

Pues no se preocupe, el mundo no se ha terminado: puede usted ser doctor (Ph. D. de los buenos) en un año por la Open International University for Alternative Medicine. Aunque en realidad, como esa universidad parece tener dificultades con sus títulos, lo será por otra que mola mucho más, la New Age International University. Y de los EE.UU. además, que son más prestigiosas.

¿Cuáles son los requisitos? Pues para ser admitido basta con haber cursado un grado en cualquier "institución auténtica". Qué sea eso de auténtica lo desconozco pero dense cuenta de que, al menos en España, se ahorran los enojosos, caros y frecuentemente inútiles cursos de doctorado y el tiempo que suponen.

Luego llega la hora de la verdad: debe usted enviar un trabajo de investigación "original y auténtico" (de nuevo) que servirá de Tesis siempre que tenga 300 páginas como mínimo. El tema será cualquiera relacionado con medicinas alternativas y deberá estar visado por una "persona competente". Una tesis como la de John Nash y algunas otras no serían admitidas por aquí pero bueno, ellos no tenían problemas.

Luego ya sólo queda el papeleo: pagar 850 dólares (ahora, tal como está el euro, para los europeos esto es una ganga). Eso sí, por adelantado. ¿No se lo creen? Miren aquí. Ahora me explico tanto doctor esotérico suelto.

Nota: la pista de estos jetas me la dió M. A. Sabadell en su artículo de esta semana en Público: los mensajes de agua. Léanlo que merece la pena.

16 mayo 2008

Dino, Rufus y la Tierra joven

Dibujo saqueado de "Grouñidos en el desierto"
Pulsa encima para ampliar

14 mayo 2008

Se construye la primera enzima artificial

Hace apenas tres meses en ¿Cerca de crear vida artificial? comentaba que el trabajo de Gibson y colegas había sido exageradamente tratado y "vendido" como lo que no era. Hoy les comentaré que acaba de producirse un avance espectacular en la síntesis de productos biológicos realmente artificiales y que ha pasado desapercibido, tal vez porque no está Craig Venter por el medio.

Donde un grupo de gente diseña por ordenador y construye mediante ADN sintético la primera enzima capaz de catalizar una reacción no biológica

Recordemos que las enzimas son catalizadores de reacciones químicas exclusivamente biológicas. Son proteínas extremadamente específicas que facilitan esas reacciones en minúsculas cantidades y sin ser consumidas en el proceso. Las enzimas actúan reduciendo la energía de activación necesaria para que la reacción química se produzca y esto lo realizan porque su estructura espacial facilita la reacción (ver explicación del plegamiento de las proteínas en el segundo post De los males de una dieta exótica). En una enzima funcional, este plegamiento proporciona un región llamada "sitio activo" donde las moléculas implicadas se fijan de una forma específica que permite la reacción en condiciones más favorables.

Dado que las enzimas pueden catalizar sólo reacciones biológicas muy específicas y en condiciones ambientales normalmente limitadas (a fin de cuentas funcionan en organismos vivos) sería relevante poder diseñar y construir enzimas artificiales, inexistentes en la naturaleza, pero capaces de catalizar reacciones de interés industrial o ambiental, desde la farmacología hasta la limpieza de contaminantes.

Pues la noticia es que se han construido las primeras enzimas artificiales. El proceso seguido me parece impresionante, pasen y vean.

Daniela Röthlisberger y colegas (14 firmantes) lo cuentan en un trabajo titulado Kemp elimination catalysts by computational enzyme design.

Röth y compañía eligieron dos reacciones químicas conocidas para construir una proteína con un sitio activo "de diseño". El diseño se realizó mediante computación masiva ya que era necesario definir una secuencia de aminoácidos que luego se plegara de la forma deseada, algo realmente complicado. Citan, por ejemplo, que para una proteína de 100 aminoácidos existen unas 10130 secuencias posibles, cada una de las cuales adoptará una forma plegada diferente que debe ser calculada.

Para esta ingente tarea se creó un proyecto de computación distribuida al estilo de SETI@home pero que en este caso se llama Rosetta@home. El proyecto debía deterinar qué secuencia era la apropiada para conseguir los "sitios activos" diseñados teóricamente por tres de los coautores y que se suponía podrían funcionar dadas las estructuras de las moléculas intervinientes.

Encontradas esas estructuras virtuales candidatas a ejercer de enzimas, se crearon genes artificiales que codificaran la secuencia de aminoácidos deseada. Este ADN sintético se insertó en la bacteria Escherichia coli que fabricó por primera vez una proteína que nunca existió en la naturaleza.

La primera sorpresa fue que las enzimas funcionaban. Y la segunda que funcionaban bien, multiplicando la tasa de reacción unas decenas de miles de veces. Sin embargo no se quedaron aquí y el siguiente paso es también sorprendente: los científicos mutaron el ADN artificialmente (buscando una especie de evolución in vitro) para probar los resultados que se obtenían con esas variaciones aleatorias. Poco a poco consiguieron multiplicar por 200 las velocidades de las reacciones catalizadas en primera instancia llegando a tasas de reacción de un millón de veces respecto a las no catalizadas.

Esto sí es diseño inteligente. Literalmente.

Por fin el descubrimiento de la NASA

El tan esperado por anunciado notición de la NASA es interesante pero reconozco me ha dejado algo frío, esperaba más. Se trata de la localización de una supernova en nuestra propia galaxia que estalló hace sólo 140 años. La explosión no pudo ser vista al estar cerca del centro de la galaxia y quedar oculta por densas masas de gas y polvo.
La noticia original aquí.

12 mayo 2008

¿Informaron los marcianos a Jonathan Swift?

El misterio misterioso está servido ¿cómo pudo Jonathan Swift saber con "escalofriante" exactitud los parámetros orbitales de los dos satélites de Marte 150 años antes de que se descubrieran?

Hay bastantes referencias en internet sobre esta cuestión por lo que les pondré sólo una, la de Manuel Capella que en su web (impagable) firma un artículo donde nos pone en antecedentes (las cursivas son mías):
A veces basta con contar con los dedos para desmontar una fantasía: Jonathan Swift no sabía nada de los satélites de Marte por mucho que algunos se empeñen en afirmarlo


¿Quién no ha leído (o visto en película) en un momento u otro de su vida, los famosos "Viajes de Gulliver", de Jonathan Swift? Pues bien, esta obra mordaz y profunda de la "literatura infantil", quizás encierre unas informaciones científicas asombrosas. Pero vayamos por partes: oficialmente, los dos satélites del planeta Marte, Deimos y Fobos, fueron descubiertos por el astrónomo norteamericano Asaph Hall en el año 1877. [...] Pero a poco que analicemos, veremos que son descritos en la obra de Jonathan Swift, con sus parámetros exactos, y esto en 1726, o sea, 15O años antes de su "descubrimiento".

En la tercera parte de los "Viajes de Gulliver", se describe los dos satélites de Marte, por boca de su personaje, y da sus coordenadas con una precisión escalofriante: Leemos en el texto de Swift: "Han descubierto (se refiere a los astronautas tripulantes del gigantesco "disco" o "ciudad volante" que secuestraron a Gulliver), dos estrellas interiores o satélites, que giran alrededor de Marte, del que el más próximo se encuentra de su centro a tres veces exactamente de su diámetro y el más alejado a una distancia de cinco veces el mismo diámetro". Diana total. Estas medidas son completamente exactas. Gulliver proporciona muchos más datos, que por falta de espacio vamos a omitir, pero que son tan correctos y precisos como los anteriores. Pero la pregunta que hay que hacerse es ¿cómo llegaron esos datos a Swift?

¿Cómo se resuelve este misterio? ¿Cómo sabía Swift los detalles de las dos lunas de Marte antes de que la ciencia los descubriera? Vamos a confirmar algunos datos a ver si lo del escalofrío se sustenta.

Respecto a los datos que da Swift tenemos suerte porque son explícitos y claros: en el capítulo III de la tercera parte, A voyage to Laputa, Balnibarbi, Luggnagg, Glubbdubdrib, and Japan, se encuentra el párrafo en cuestión que traducido es algo así:

Asimismo han descubierto dos estrellas menores o satélites que giran alrededor de Marte, de las cuales la interior dista del centro del planeta primario exactamente tres diámetros de éste y la exterior, cinco; la primera hace una revolución cada diez horas y la última cada veintiuna y media; así que los cuadrados de sus periodos están casi en igual proporción que los cubos de su distancia al centro de Marte; lo cual muestra que están gobernados por la misma ley de gravitación de influye sobre los otros cuerpos celestes.

Los "muchos más datos" que menciona la web de don Manuel se refieren a dos: los respectivos periodos de rotación alrededor de Marte. Tenemos, por tanto, 4 datos para contrastar y escalofriarnos (o no): radio de las órbitas y periodos de rotación. Así podremos valorar si a Swift le dieron el chivatazo los marcianos tal como sugiere don Manuel:

Pues bien: las informaciones sobre los satélites de Marte fueron dadas a Gulliver por sus amigos, los tripulantes de la "Isla Voladora". ¿Tripulantes de un Ovni? Y éstos ¿cómo lo sabían? Y por si fuera poco le dijeron a Gulliver que ellos eran marcianos, que venían del "Planeta Rojo". Gulliver (Swift en este caso) tuvo información que "alguien" le hizo llegar. Informaciones que han resultado ser ciertas. La única duda que subsiste es saber quién era ese alguien. ¿Extraterrestres?. ¿Marcianos?

Afirmaciones de Swift (dato necesario: Marte tiene un diámetro de 6794 km):
  • Fobos. La distancia de la órbita a Marte sería de tres veces al diámetro de este: 20382 km. El periodo orbital sería de 10,0 h.
  • Deimos. La distancia de la órbita a Marte sería de cinco veces al diámetro de este: 33970 km. El periodo orbital sería de 21,5 h.
Datos reales:
  • Fobos. La distancia de la órbita a Marte es de 9377 km (46% del "dato" de Swift, DS). El periodo orbital es de 7,6 h (76% del DS).
  • Deimos. La distancia de la órbita a Marte es de 23460 km (69% del DS). El periodo orbital sería de 30,3 h (141% del DS).
Ahora ya podemos responder a la pregunta inicial de ¿cómo pudo Jonathan Swift saber con "escalofriante" exactitud los parámetros orbitales de los dos satélites de Marte 150 años antes de que se descubrieran? Respuesta: no pudo. No lo hizo, ni con "escalofriante" exactitud ni con una razonable aproximación.

Swift acertó, en efecto, en el número lunas (obviemos piadosamente lo de "estrellas menores") pero ni siquiera fue el primero que lo dijo ya que Kepler lo había propuesto un siglo antes. Cierto es que lo hizo basándose en un razonamiento irreal (aunque no descabellado para la época). No se sabe Swift estaba enterado de esto o acertó por casualidad pero cualquiera de estas dos opciones es mucho más verosímil que un ET chivato.

A Swift podemos concederle, por tanto, el mérito de la imaginación y de la crítica social pero no el de tener acceso a misteriosa información privilegiada. Lamentablemente, en un mundo donde la información está al alcance de unos "clicks", los estusiastas de la marcianidad ni siquiera han tenido la curiosidad de buscar los datos reales y contar con los dedos. Pero así funcionan estas cosas.

Nota:

El que quiera curiosear en la publicación original del descubrimiento de ambos satélites marcianos por Asaph Hall puede ver un facsímil aquí (The Observatory, 1(6): 181-185, 1877.

10 mayo 2008

Mis habilidades paranormales

Hay algunos blogs que se atreven a poner los días que llevan sin conocer a nadie con poderes paranormales (véase el pionero, Ciencia en el XXI). Bueno, pues se acabó, hoy salgo del armario y les confieso que los tengo. Poderes paranormales digo. Y además no son los habituales en los gurús del ramo sino algo muy especial de los que nadie ha hecho ostentación hasta el momento. Destacan estos tres:

  • soy postcognosciente, es decir, poseo el don de la postcognición. Esta es un poder paraanormal que me permite explicar lo inevitable y previsible que era que pasara algo. Eso sí, es condición necesaria que ya haya pasado, nunca antes porque entonces sería cosa de mis rivales, los de la precognición y con esos no me hablo. La postcognición, a pesar de que nadie admite tenerla, no es una capacidad infrecuente. La tienen, por ejemplo, muchos economistas, que explican las subidas y bajadas de bolsa y los vaivenes de la economía con perfecta solvencia pero sólo al día siguiente de que ocurran. Yo soy más atrevido y les comentaré que supe en su momento que el Mayo Francés no podía tener éxito. Es era lógico porque tras la catarsis de la manifestación, de la asamblea o del discurso de Sartre tenías que volver a casa a lavar la ropa y hacer la cena y eso, por prosaico, no hay revolución que lo resista. Se que una explicación cutre de cojones pero no peor que la de cualquier "desaceleración" económica o "ajuste a la baja" de las previsiones de crecimiento. Lástima que cuando el Mayo francés yo casi no existiera, sino les habría avisado en junio o julio.
  • soy antividente, predigo acontecimientos que jamás pasarán y lo hago con el 100% de seguridad. Para que se convenzan voy a mojarme y predecir que mañana, domingo, vendrá el fin del mundo. Muchos videntes y profetas lo han vaticinado y han fallado. Yo la antipredigo y les aseguro que no fallaré. Es más, será sobre las 9 horas TMG aproximadamente. Lamento avisarles con tan poco tiempo pero si no lo digo muchos de ustedes estarían dormidos y no se enterarían de la no-llegada del apocalipsis. Por cierto, que otros lo ponen dentro de 4 años, cuando no se qué cálculos cabalístico-chiripitifláuticos de los mayas. Pues yo también antipredigo esa fecha (haciendo amigos, ya ven).
  • soy contralevitante: los monjes budistas, en condiciones adecuadas de concentración de alcaloides, se levantan del suelo venciendo la gravedad. Bueno, pues yo hago exactamente lo contrario: en ciertas circunstancias, cuando me concentro intensamente, mi masa sube. Puede medirse, puedo darles datos, acepto someterme a experimentación. Eso sí, la experiencia debe hacerse obligatoriamente en condiciones adecuadas y estrictamente controladas. Son buenas, por ejemplo, delante de una fabada y su compango (chorizo, morcilla, lacón y tocino). Todo ello sin necesidad de penumbras, túnicas azafrán, ooooohms, ni nada semejante. Y de postre, por favor, arroz con leche).
  • finalmente quiero negar un infundio: algunos dicen que soy nulitelépata, o sea, que no sólo no consigo transmitir mi pensamiento a media neurona de distancia sino que ni siquiera cuando hablo se me entiende algo. Pero estos comentarios son sólo producto de la envidia, no se los crean.

Datos complementarios ya casi perdidos en el tiempo:

Disfruten intensamente de mi antipredicción para el fin de semana.

07 mayo 2008

Erradicando el tracoma

Donde la "ciencia oficial" da una solución y los estafadores de la pseudomedicina otra.

Tracoma y oncocercosis son las dos principales causas de ceguera en el mundo. Mientras que para la oncocercosis las noticias son realmente malas, para el tracoma parece que no tanto.

El tracoma está provocado por la bacteria Chlamydia trachomatis. La infección comienza frecuentemente en la niñez y con el tiempo causa cicatrices en los ojos, deformación de los párpados y ceguera por afección de la córnea. Como suele ocurrir, el tracoma no existe en el primer mundo, es endémico en las zonas pobres de unos 55 países, principalmente en África y Asia y afecta principalmente a los niños.

La OMS creó en 1997 la Alianza para la eliminación del tracoma para el 2002 (GET2020, de Global Elimination of Trachoma), cuyo objetivo es llegar a la erradicación en ese año 2020. Los datos son prometedores ya que se ha pasado de 360 millones de afectados a mediados de los 80 a "sólo" 84 millones en la actualidad con 8 millones de personas con daños severos en los ojos. El tracoma se contagia por contacto directo o indirecto (moscas por ejemplo) con lo que además de los tratamientos antibióticos es esencial mejorar las condiciones higiénicas y reducir el hacinamiento.

La buena noticia se publicó en el New England Journal of Medicine del 24 de abril con un artículo titulado Two doses of azithromycin to eliminate trachoma in a Tanzanian community. En esta trabajo informan del tratamiento seguido en un lugar llamado Kahe Mpya, en Tanzania. Con una prevalencia inicial de casi el 10% se hizo un tratamiento general con una dosis de azitromicina a algo más de 800 personas. A los 24 meses, la prevalencia se había reducido a menos del 1%. Una segunda dosis general en ese momento erradicó aparentemente la enfermedad ya que 3 años más tarde no se detectó ADN de la bacteria en ninguna de las personas tratadas.

La azitromicina se comercializa sobre todo por la farmacéutica Pfizer bajo el nombre de Zithromax. Pfizer participa en la erradicación del tracoma a través de la Iniciativa Internacional contra el Tracoma (ITI) y ha donado hasta el momento 74 millones de dosis de dicho antibiótico.

Pero hay otras aproximaciones al problema y quiero mencionarlas aquí, donde se ven bien los contrastes. Probablemente la más conspicua es la de un personaje referenciado como el "doctor Felicísimo Ramos" afirma que el tracoma puede ser tratado eficazmente con "agua magnética" (junto con un centenar más de enfermedades, entre ellas cáncer). ¿No se lo pueden creer? Miren en la página 4 de este documento. Por cierto que el tal doctor dice serlo de tres universidades (casi nada): Complutense, Badajoz y Alcalá de Henares. En la primera y la última no aparece en los directorios, la de Badajoz no existe ni ha existido nunca. También dice ser diplomado por el Imperial Collage (sic).

El artículo original del New England Journal of Medicine, el de medicina de verdad, está aquí.

05 mayo 2008

Llegó el Researcher-ID

Comprendo que muchos no entiendan mi moderado pero real entusiasmo. A los que no se dediquen a esto les pongo brevemente en antecedentes: mi primer apellido es singular, tanto que en el mundo de los investigadores y asimilados no lo comparto con nadie. Con J. Fernández o M. Smith no pasa lo mismo. El resultado es que a la hora de buscar sus publicaciones en lugares especializados, como el ISI Web Of Science, es imposible tener la seguridad de qué han escrito porque se mezclan con cientos de homónimos.

Les comenté hace un tiempo la existencia de una cosa llamada DOI (vean el post Recovecos de Internet) o Digital Object Identifier, un identificador único, público y persistente de cada “objeto” existente en la red. Los DOI se están utilizando para identificar los artículos científicos, de forma que escribir DOI:10.1186/1742-7622-3-15] es referirse al artículo y sólo al artículo:

Tam, Clarence C., 2006, Migration and health: fact, fiction, art, politics, Emerging Themes in Epidemiology, 3:15.

La cosa se pone interesante cuando tecleando

http://dx.doi.org/10.1186/1742-7622-3-15

la International DOI Foundation resuelve el identificador y nos lleva directamente al artículo, con independencia de donde esté publicado.

La novedad es que el Institute for Scientific Information ha creado el equivalente para cada investigador: ya podemos ser identificados univocamente al menos dentro de esa enorme base de datos.

El identificador debe solicitarse mediante la opción MyResearcher-ID que esta en el menú superior de la ISI Web of Knowledge. Tras rellenar unos datos y propocionar una contraseña se recibe un correo de confirmación y el RID bajo la forma X-NNNN-2008 donde X es una letra, N un dígito y 2008 el año de alta.

Posteriormente se podrá acceder a la web Researcher-ID para definir nuestro perfil (áreas de investigación...) y asignar nuestras publicaciones a la ficha (en las que se incluye automáticamente el DOI, el número de citas y en enlace al artículo original). La información puede hacerse pública parcial o totalmente.

Ahora falta que los editores pidan a los autores su RID y lo incluyan en las futuras publicaciones. La ventaja de todo esto es que se avanza en la automatización, transparencia y globalización (con perdón) de las autorías, algo necesario no sólo en la investigación.

03 mayo 2008

No habrá "máster en ciencias" creacionista

Al menos por ahora. En febrero de este año, el Institute for Creation Research, una institución que interpreta la Biblia de forma literal (lo que genera cosas tan entretenidas como esta) solicitó al Texas Higher Education Coordination Board la autorización para impartir un "master's degree" en ciencia. Es decir, enseñar creacionismo bajo la homologación de ciencia.

La decisión ya ha sido tomada por los nueve miembros del comité: no habrá homologación del máster creacionista.

El mayor responsable es posiblemente el encargado del informe principal, el Comisionado de Educación Superior Raymund A. Paredes cuya recomendación se basó en algo elemental: el ICR no ha sido capaz de demostrar que el programa cumple estándares científicos aceptables. Dicho de otro modo: no vale todo.

Sin embargo, la cuestión aún no está definitivamente resuelta ya que el ICR tiene 45 días para recurrir y en el caso de perder de nuevo puede acudir al Tribunal Supremo de Texas a ver si allí le hacen más caso.

Pueden encontrar mucha más información sobre este asunto en la web de Texas Citizens for Science.

30 abril 2008

Albert Hoffman

Ha muerto también Albert Hoffman, tal vez les apetezca saber algo sobre él, el Camino de Santiago y la psicodelia.

Lorenz, modelos y gaviotas

Estos días ha muerto Edward Norton Lorenz, algo ya reseñado en muchos blogs y, cómo no, en la Wikipedia. Lorenz fue meteorólogo y nos dejó como legado algunas cosas para pensar. Se le atribuye una famosa frase, parece ser que pronunciada en una intervención en la Academia de Ciencias de Nueva York en 1963:

... if the theory were correct one flap of a seagull's wings would be enough to alter the course of the weather forever.

... si la teoría fuera correcta un aleteo de una gaviota sería suficiente para alterar el curso del clima para siempre.

Por qué las mariposas no condicionan la meteorología o sobre los peligros de tomarse una buena frase literalmente confundiendo de paso modelos y realidad

La frase anterior, con el tiempo, ha ido cambiando (mariposa o gaviota, Brasil o Hong-Kong...). El caso es que se refiere a algo concreto y muy interesante. La historia es conocida pero la resumo aquí brevemente para luego discutir, desde mi visión de lego, algunas implicaciones de la misma.

Cuando Lorenz hacía modelos de convección

En 1960 Lorenz intentaba simular groseramente algunos aspectos de la dinámica atmosférica con un primitivo ordenador (he leido que tenía 4 kb de memoria). En concreto, trabajaba con sólo tres ecuaciones diferenciales con las que se aproximaba a las ecuaciones de convección de Rayleigh-Bénard. Los cálculos proporcionaban largas secuencias de números en las que las variables implicadas iban cambiando de valores en el tiempo. Las simulaciones duraban mucho tiempo y un día Lorenz decidió reiniciar una de ellas. En vez de comenzar de nuevo desde el principio y repetir los primeros cientos o miles de pasos introdujo manualmente los valores correspondientes a un paso intermedio y arrancó de nuevo el proceso. Observó que ahora los resultados divergían poco a poco de los calculados en el experimento anterior hasta hacerse completamente diferentes.

¿Cómo podía una simulación determinística dar resultados diferentes partiendo de los mismos datos? La explicación era simple aunque algo sorprendente: los datos no eran exactamente los mismos. En efecto, el ordenador trabajaba con 6 dígitos decimales pero sólo imprimía tres (algunas fuentes dicen cinco), los que Lorenz había tecleado en el intento de réplica. Y esa diferencia minúscula en los datos de entrada, 0.654209 frente a 0.654 por ejemplo, acababa generando resultados completamente diferentes. Esto no ocurre en todos los modelos sino sólo en algunos que se muestran especialmente sensibles a las condiciones iniciales.

Lorenz sacó de esa experiencia la consecuencia de que la dinámica meteorológica no podía conocerse mediante modelos ya que no se podía huir de que mínimas variaciones en los datos originales produzcan modelos divergentes sin relación probable con lo que luego pase realmente. Y así lo escribió en un artículo de 1963:

[our results] indicate that prediction of the sufficient distant future is impossible by any method, unless the present conditions are know exactly.

Edward N. Lorenz, 1963, Deterministic Nonperiodic Flow, Journal of Atmospheric Sciences, 20(2): 130-141.

Lorenz dio forma al asunto en una reunión de la AAAS en 1972. En el título ha desaparecido ya la gaviota en beneficio del dichoso lepidóptero:

Lorenz, E.N., 1972, Predictability: Does the flap of a butterfly’s wings in Brazil set off a tornado in Texas? 139th Meeting of the AAAS, december 29, 1972, Washington, D.C.

Esta intervención no fue publicada nunca aunque por suerte se recuperó e imprimió en 1993 como apéndice del libro

E. Lorenz, 1993, The Essence of Chaos, University of Washington Press: London.

El enlace permite descargar el libro electrónico en formato djvu.

En esa intervención Lorenz no respondió explícitamente a la pregunta que le da título aunque la tradujo a un formato algo más técnico ¿es el comportamiento de la atmósfera inestable ante perturbaciones de pequeña amplitud?

Cuando el autor de este blog se mete en un charco

A eso se le llama hoy "sensibilidad a las condiciones iniciales" y es una propiedad cuya magnitud debe analizarse siempre que se construyen modelos dinámicos para valorar la robustez de sus resultados. Lorenz comenta, en efecto, que el grueso de sus conclusiones se basa en las simulaciones numéricas de la atmósfera.

Y ese, en mi opinión, es el problema (y ahora es cuando empiezo meterme en líos): esa sensibilidad es una propiedad de las ecuaciones usadas en el modelo, no necesariamente de la realidad. Parece, una vez más, la tendencia a confundir los modelos y el objeto modelado, asignándole al segundo todas las propiedades que emanen del primero.

Eso nos lleva a discutir dos cuestiones diferentes: la primera es dar respuesta a la famosa pregunta ¿puede un aleteo de mariposa en Brasil provocar un tornado en Texas? Y esa respuesta es no. En realidad esto ya lo dijo Lorenz pero, como siempre, las frases otundas suelen ser adoptadas literal y erróneamente por la posterioridad.

¿Por qué una mariposa en Brasil no puede desencadenar (o prevenir) un tornado (o cualquier otra cosa) en Texas? La tentación es decir "sí puede, ahí tienes los resultados del modelo". Pero eso sólo prueba el comportamiento del modelo, no de la atmósfera. Un modelo es una representación simplificada de la realidad y como tal suele diseñarse en un escenario "limpio", reduciendo variables y simplificando ecuaciones. La realidad, por su parte, está influida por millones de variables con un comportamiento fuertemente estocástico. En ese entorno, nuestro aleteo de mariposa se pierde de forma inmediata y no puede generar efectos sensibles en esa mezcla de millones de variables con valores aleatorios. La idea es que una perturbación en un sistema como el atmosférico tiende a amortiguarse y perderse como un estornudo en el ambiente ruidoso de una gran ciudad.

La otra cuestión es si el tiempo puede predecirse con seguridad mediante modelos y en qué circunstancias. Por el momento sabemos que el tiempo no es predecible más allá de unas pocas horas, unos días a lo sumo. Sin embargo, eso no se debe a que la atmósfera se comporte como el modelo que la simula sino a que nuestro modelo se alimenta de información dispersa y deficiente. Aquí hay un efecto interesante, al menos en mi opinión: si nos dan las condiciones atmosféricas de dos dias distintos separados por un intervalo de tiempo de, supongamos, 10 días, podremos estimar las condiciones intermedias entre ambos días con razonable exactitud. Sin embargo, ese mismo modelo no podrá darnos información fiable a diez días vista en el futuro. En el primer caso, conocemos el origen y el final del proceso y la simulación puede apoyarse en ambos extremos: las incertidumbres no pueden propagarse en el modelo de forma incontrolable ya que hay un final conocido que debe producirse.

En el segundo caso, sin embargo, sólo fijamos el origen y dejamos libre el proceso de forma que, al cabo de 10 días, la propagación de las incertidumbres asociadas a los datos iniciales hacen que las previsiones sean muy probablemente irreales. No se trata del "efecto mariposa" sino de la incapacidad de "extrapolar" con exactitud a partir de modelos excesivamente simples en sus ecuaciones y afectados por fuertes incertidumbres en los datos. Esa divergencia puede reducirse (y se ha hecho) con mejores datos y ecuaciones pero es inevitable ante sistemas tan complejos como la atmñosfera.

Digresión: por ese motivo, a mí me gusta entender los modelos de cambio climático actualmente tan en boga como generadores de escenarios, no como predictores de una realidad futura.

Para terminar, me gustaría hacer una reflexión algo más filosófica sobre el uso que he visto en algunos lugares del verbo cambiar: ni el aleteo de una mariposa ni la caída de un meteorito pueden cambiar nada porque no ha existido nunca una realidad alternativa con la cual comparar. Los modelos son replicables pero la realidad es única y sólo se presenta de una forma. Las alternativas son construcciones mentales, no realidades.

Otros blogs en español que han tocado el tema: Juan de Mairena, Curioso pero inútil e Historias de la Ciencia.

Libro sobre periodismo científico

Puede descargarse el libro Los desafíos y la evaluación del periodismo científico en Iberoamérica (PDF 2 Mb) donde se recogen las comunicaciones de las Jornadas Iberoamericanas sobre la ciencia en los medios masivos realizadas en Santa Cruz de la Sierra (Bolivia), entre el 30 de julio y el 3 de agosto del pasado año 2007.

[Breves] Humo sobre Buenos Aires

Una imagen del Earth Observatory tomada por el radiómetro MODIS nos muestra los incendios producidos entre Rosario y Buenos Aires estas pasadas semanas. Pulsando sobre la imagen pueden hacer un zoom muy detallado (1.9 Mb) que merece la pena.

28 abril 2008

Lo viejo y lo nuevo

Suele creerse que la serie fotográfica aérea "moderna" más antigua de España data de los años 1956-57 y dado que fue tomada por el ejército estadounidense se la suele llamar "serie americana". Con el calificativo de "moderno" me refiero a técnicas de fotografía vertical con cámaras de gran formato que forman series destinadas a levantamientos cartográficos. Yo me he enterado no hace mucho de que hay al menos un vuelo anterior, nada menos que del periodo 1945-48, aunque parece que no se conserva la totalidad de los fotogramas.

La información sobre esta serie es muy escasa. Aún así, un colega me ha pasado unos fotogramas como el que les muestro abajo, perteneciente a una zona de dehesa cacereña. A esta serie fotográfica se la llama "Serie A" y he localizado una referencia sobre ella aunque no he podido conseguir el artículo (si alguien lo tiene a mano, ya saben...):

Quirós Linares, Francisco y Fernández García, Felipe, 1997, El vuelo fotográfico de la "Serie A", Ería, 43: 190-198.

Esta imagen es de un trozo del fotograma a resolución muy reducida, pueden ampliarlo pulsando sobre él.

[pulsar encima para ampliar]

Para completar lo anterior, y aprovechando que el Pisuerga pasa por Valladolid, les pongo también la foto más reciente que conozco del teatro y anfiteatro de Mérida. La tomé el sábado pasado durante un paseo que me proporcionó L en una tarde memorable (y no sólo por las térmicas sino porque la avioneta en cuestión es de 1.5 plazas por mucho que digan que son dos).

[pulsar encima para ampliar]

Como curiosidad histórica, la fotografía aérea en España comenzó formalmente en 1896 con la creación del Servicio de Aerostación Militar dependiente del entonces llamado Ministerio de la Guerra.

24 abril 2008

Merck y sus fantasmales autores

Merck es una gran empresa farmacéutica cuya fundación se remonta a 1891. Ha hecho grandes cosas, alguna de las cuales reseñé en este blog (ver Malas noticias en salud): en 1987 Merck inició el Mectizan Donation Program mediante el cual proporciona gratuitamente 68 millones de dosis anuales de ivermectina, el único medicamento efectivo contra la filariasis linfática y la oncocercosis, dos enfermedades producidas por gusanos parásitos que afectan a decenas de millones de personas en el mundo.Donde Merck usa autorías falsas para ocultar su intervención en ensayos clínicos de un medicamento propio con proble- mas de mortalidad

Pero todo tiene su lado oscuro y Merck ha sido acusada de usar autores fantasma para mostrar resultados favorables a uno de sus medicamentos, un analgésico llamado rofecoxib (comercializado como Vioxx y Ceoxx). La estrategia fue omitir nombres de autores ligados a la industria farmacéutica añadiendo el de otros que, en realidad, no habían trabajado en el artículo. De esta forma, la implicación de Merck en el ensayo clínico se ocultaba. Joseph S. Ross, del Hospital Monte Sinaí, lo ha resumido contundentemente:

"La idea de una compañía farmacéutica dirigiendo un ensayo clínico donde sus propios empleados lo diseñan, analizan los datos y escriben el artículo para luego, al final, contratar autores académicos para poner su nombre en el documento y dar un sello de supuesta autenticidad es algo escandaloso"

Ross es el primer autor de un trabajo donde analizaron un par de cientos de artículos relacionados con el medicamento publicados entre 1996 y 2004. Encontraron ensayos clínicos en cuyos borradores el primer autor era un empleado de Merck. A la hora de publicarse en revistas científicas, en 16 de 20 artículos este autor desapareció de ese lugar, que fue ocupado por un académico externo. El equipo de Ross encontró "escasa evidencia" de que esos autores académicos hubieran estado realmente involucrados en la investigación que firmaban pero sí localizaron evidencia de que habían sido pagados por aceptar su autoría, frecuentemente en solitario.

¿Tenía Merck algún interés en que estos ensayos le resultaran favorables? Lamentablemente, sí. Merck está en juicios por muertes ocasionadas aparentemente por dicho medicamento. Algunos análisis comenzaron a revelar que las tasas de mortalidad atribidas al Vioxx estaban claramente infravaloradas. Otros mostraron intervenciones sospechosas: en un estudio con enfermos de Alzheimer se encontró que se ocultaron o minimizaron tasas significativas de mortalidad respecto a grupos placebo. La sospecha de que estos ensayos clínicos fraudulentos están dirigidos a apoyar como argumento de autoridad a la compañía en los juicios es inevitable.

El negocio de Merck con este fármaco estaba en unos 2.5 mil millones de dólares hasta que fue retirado a finales del año 2004, cuando empezaron a destaparse los problemas de mortalidad por accidente cardiovascular y comenzaron los juicios.

20 abril 2008

Universidad, nuevos objetivos

Parece que todo está cambiando en la universidad y a nuevos tiempos, nuevos títulos y nuevos objetivos.

Para entender esos nuevos objetivos les copio unas pocas frases selectas de las normativas de varias universidades españolas (tengo bastantes más pero tampoco hay que ponerse pesado, son todas reiterativas). Las cursivas son mías:

El título de Grado implica una formación básica que habilita a los titulados para incorporarse al mercado laboral, por lo que debe tener básicamente un formato de troncalidad común para todos ellos.

Las nuevas enseñanzas han de ser fruto de un diálogo abierto con los empleadores...

Han d'incloure [las titulaciones] una descripció dels mecanismes que permetrien eventualment una revisió de la titulació si es produïssin canvis significatius en la demanda social...

O deseño da nova oferta de titulacións [...] debe enmarcarse nun sistema mais aberto, diverso e versátil, que permita e favoreza unha mellor adaptabilidade a unha realidade laboral cambiante...

[Los planes de estudios] han de posibilitar la realización de un periodo de prácticas externas [...]que deben estar concebidas y organizadas para favorecer la ocupación de los futuros egresados.

Ya ven que aquí las diferentes "lenguas del Estado" no implican desacuerdo ni confrontación: las titulaciones tendrán una clara expectativa de salida laboral inmediata y si no la tienen se quitan y, además, serán las que los empleadores pidan. El conocimiento no es un objetivo; será, tal vez, un posible efecto colateral. En este contexto, la matemática, la física, la filosofía... tienen un oscuro futuro pero no digan que no les avisé en la universidad de los mercaderes.

Les confieso que, después de varios años de analizar (o intentarlo) las nuevas normativas, decretos y promociones publicitarias ministeriales, mi opinión se ha consolidado: esto de Bolonia es un gran cuento, un hoax de esos que circulan por la red. No sé si está escrito por halcones o por palomas pero, en este último caso, todo se les ha ido de las manos. Tengo la esperanza de que la universidad de desmorone de una vez y que de sus cenizas, dentro de unas décadas, salga algo nuevo impulsado por gente ilusionada, amante del saber, y con un proyecto con sentido de futuro a largo plazo.

Recuerdo aquí, con desesperanza, una reflexión de Edsger Wybe Dijkstra que viene al pelo (y recordemos que estaba en una universidad estadounidense):

La tarea de la universidad no es ofrecer lo que la sociedad demanda, sino lo que la sociedad necesita. Las cosas que la sociedad demanda son, en general, bien conocidas, y para ello no necesitas una universidad, la universidad tiene que ofrecer lo que nadie más puede proveer.

Concluyo que esta sociedad ha decidido que no necesita una universidad, algo que siempre le ha sido lejano y difícilmente comprensible, sino que prefiere una coartada para títulos subprime, de fácil y barata colocación. Por eso ha delegado su representación en los "empleadores", que no son la sociedad sino sólo una parte de ella y con intereses diferentes. Esa es la única causa que se me ocurre para que se considere "docencia de calidad" aquella que aprueba a todos a la primera y con buenas notas, aquella que fija sus niveles de exigencia en función del "cliente" y lo eyecta al mercado laboral en el mínimo tiempo posible (no hablo por hablar, ya les contaré).

La nueva universidad no debería tener como objetivo que los alumnos contraten su hipoteca lo antes posible y estén más pendientes del Euribor que de las ganas de cambiar la sociedad. Esos son otros intereses de otra gente. Pero así son las cosas.

18 abril 2008

El Museo de los objetos improbables

Las he empezado a recoger con gran esfuerzo, a todo lo largo y ancho de este mundo; representan eso que la ciencia oficial se niega a reconocer: pruebas de que hay algo ahí. O allá. Hasta el momento he conseguido siete (mágico número) que solucionan arcanos misterios sin resolver. A saber:
  • la única bosta conocida del ninki-nanka, recogida en un lugar que he jurado no desvelar. Lógicamente, he encargado un análisis de ADN con resultados tan espectaculares como sorprendentes: el ninki-nanka tiene genes comunes con la vaca del lugar, concretamente con la raza conocida como "asturiana de los valles". Los científicos están desconcertados con el hallazgo y proponen que es un alucinógeno caso de coproconvergencia.
  • la mejor fotografía de Nessie, el monstruo del Lago Ness, fue tomada hace apenas dos meses. Se la muestro abajo. La foto, como se puede deducir de un atento examen del original (EXIF incluido), fue tomada desde dentro de la boca de Nessie. En cuanto aparezca el fotógrafo le preguntaré más detalles.
  • el diario (auténtico) del hombre de Piltdow; el relato es directo y natural, como corresponde a una personalidad abierta. Reproduzco un fragmento: "fue superguay, tío, me llamó Mike para salir llamando a Wilma en un disco de campanas o algo así y resulta que me hago más famoso que con el fósil de mierda ese de mi bisabuelo... Lo mejor era la letra":
  • SHOBBOGWAGTAGWANOWOAH
    SHLOBOGWAGTOWANOW
    SHLOBOWAAGTONWANNOWAN
    SHLOBOWAAAGTOGHWANOW
    UUHHMM, UHMM
    SFHLOW, SFHLOW, SFHLOW, SFHLOW, SFHLOW
    SHOBBOGWAG, SHOBBOGWAG, SHOBFT, SHOBFT, SHOBFT
    ARRNOW ! ! !
    AAAAAAAAARRRRRRRRRRRRRRRRRRGGG GOW ! ! !
    AGGGH...
    SHOBBOGWAG...
    SFHOBBOGWAAAGTAGWANOWOAH
    SFHLOBOGWAGTOWANOW
    SFHLOBOWAAGTAGWANNOWOAW
    SFHLOBOWAAAGTAGHWANOW
    UUHHMM, UHMM...
    SHOBBOGWAG, SHOBBOGWAG, SHOBFT, SHOBFT, SHOBFT
    SHOBFT, SHOBFT, SHOBFT, SHOBFT, SHOBFT
    SHOBFT, SHOBFT, SHOBFT, SHOBFT, SHOBFT
    AAAAAAAAARRRRRRRRRRRRRRRRRRGGG ! ! !
    AAAAAAAAARRRRRRRRRRRRRRRRRRRGGG ! ! !

  • nanochip capturado de uno de los chemtrails; los científicos están analizando cual puede ser el mecanismo y la función del siniestro artilugio. Avisada trinity ha postulado que es un decodificador mental de alta tecnología, sin duda de origen extraterrestre o, al menos, de la CIA. El cajoncito contenía un polvo oscuro aromático de naturaleza desconocida pero destinado, con toda seguridad, al control mental de la población.
  • el tapones de la Tierra hueca (a escala); la imagen canta por sí sola: la Tierra hueca puede taparse y los intraterrestres lo hacen para evitar que se oigan los botellones que montan todos los jueves. El tapón de la izquierda es el del Polo Norte y el de la derecha el del Polo Sur.
  • fragmento de la curva de nivel diabólica de altura 666 metros (¿ortométrica o elipsoídica? no acabo de enterarme del sistema que usan en el infierno). El fragmento, convenientemente exorcizado, fue extraido de los pies de Lucifer en el Parque del Retiro que, desde entonces, carece de esta elevación lo que provoca continuos tropezones entre los viandantes.

14 abril 2008

[Breves] Símbolos

Acto 1. Carmen Chacón es la nueva ministra de Defensa en España. Tanto el presidente como la vicepresidenta primera destacan una y otra vez su condición de mujer. Es un símbolo, un mensaje, dicen. A mí se me ha ocurrido que hubiera sido un símbolo similar, de la misma real o ficticia importancia, que el nuevo Ministerio de Igualdad lo dirigiera un hombre.

Acto 2. Las universidades se separan de la educación. Eso sí es un símbolo.

11 abril 2008

El hábitat de la doctoranda

K tras el tabique de su tesis doctoral (unas 140 cajas, que la otra mitad las tiene en una estantería).

10 abril 2008

Regina

Regina conoció mejores tiempos. Actualmente sus restos se esparcen sobre la Campiña Sur de Badajoz, cerca de Llerena. Fue una ciudad romana de unos 4000 habitantes que siguió habitada hasta que en la baja Edad media su situación expuesta se hizo demasiado peligrosa. En el siglo XII los almohades utilizaron sus sillares de granito para levantar una alcazaba de catorce torres que, a su vez, tuvo una historia intensa, pasando por manos de la Orden de Santiago y entrando en ruina con su abandono en el siglo XVII.

Regina se ha excavado sólo parcialmente. De lo hoy visible destaca el teatro, restos del foro y de algunas casas, así como el sistema de alcantarillado. El teatro es menor que el más conocido de Mérida y tiene un aforo de unos 800 espectadores distribuidos en diez gradas.

Vista aérea del teatro

Les dejo aquí una panorámica de 270 grados del teatro tomada el domingo pasado. La foto está formada por la unión de 9 imágenes tomadas con una Nikon D70S. La imagen del blog es muy pequeña pero aquí pueden descargar una algo mayor de 10 Mb en formato JPEG (la original en TIF es de 45.6 megapíxeles y 133 Mb). Si notan algo raro en el cielo, como manchurrones, es que me dí cuenta demasiado tarde de que tenía un pegote esparramao en el filtro.

Desde el año 2003 el teatro de Regina cobra vida de nuevo en los Festivales de Mayo y en las "Noches de Regina" de junio.

07 abril 2008

Avances que no son noticia

Mal de Chagas, leishmaniasis (protozoos), filariasis, loiasis (gusanos), dengue, fiebre hemorrágica del Ébola (virus), tracoma, lepra (bacterias), micetoma, paracoccidiomicosis (hongos)... son sólo algunos ejemplos de enfermedades de ámbito tropical normalmente ignoradas entre los que vivimos en tierras más frías.

La investigación sobre estas enfermedades tiene hoy una revista específica que, además, es de acceso abierto: PLoS Neglected Tropical Diseases.

Aunque no es mi campo de trabajo ni de lejos, a veces me llama la atención algún artículo y lo ojeo. Recientemente apareció uno que sirve para ilustrar como en 99.99% la ciencia se hace en pequeños, pequeñísimos pasos y como los avances son extremadamente costosos en esfuerzo personal. Este es uno de los motivos por los que me enervan los que, sin haberse molestado en aprender, venden milagrosos remedios y critican a lo que ellos llaman "ciencia oficial", que no es otra cosa que una comunidad imperfecta pero que trabaja intensamente.

La úlcera de Buruli (UB) es una más de esas puñeterías mencionadas al principio. Fue descrita hace 60 años en Australia, lo mismo que su causante, la bacteria Mycobacterium ulcerans (MU). Sin embargo, los casos australianos son muy pocos comparados con los de África donde se ha extendido ampliamente en las últimas dos décadas afectando a varios miles de personas al año, en su mayoría niños menores de 15 años. La enfermedad es muy seria: comienza con una hinchazón que acaba convirtiéndose en una úlcera, normalmente indolora, que crece destruyendo tejidos llegando en los casos graves a destruir el hueso. Si quieren ver alguna foto busquen "Buruli" en Google imágenes aunque no se lo recomiendo.

La causa de los daños es una toxina llamada micolactona que causa necrosis y apoptosis en los tejidos inhibiendo la respuesta inmunitaria. En el año 2004 se mostró que la capacidad de generar micolactona por parte del MU está codificada en media docena de genes localizados en un plásmido, un fragmento de ADN externo a los cromosomas de la bacteria.

La UB está presente en unos 30 países y no existe vacuna. Tiene tratamiento antibiótico (una combinación de rifampicina y estreptomicina) en las fases tempranas aunque es largo (8 semanas) y no totalmente eficaz en todos los casos, lo que se agrava porque el diagnóstico precoz es complicado. Existen métodos rápidos, eficaces y sensibles basados en el análisis de ADN pero no espere encontrarlos en las aldeas de Uganda.

A pesar del tiempo transcurrido desde su descripción no se conoce gran cosa del ciclo de vida de la bacteria ni de algo extremadamente importante: la forma de transmisión. No se sabe cómo se adquiere la enfermedad. Parece claro que no hay contagio de persona a persona (al contrario en la tuberculosis y la lepra, las otras dos enfermedades micobacterianas más extendidas). También parece que la enfermedad siempre se manifiesta en lugares próximos a agua estancada. La ausencia de ciclos estacionales y la mayor frecuencia de afecciones en las piernas apuntan claramente a algún organismo acuático. En este sentido, se ha localizado ADN de MU en algunos mosquitos en Australia y en algunos otros insectos en África, y en el año 2002 se confirmó que las mordeduras del hemíptero Naucoris podían transmitir la UB a ratones en laboratorio pero eso no es suficiente para definir el ciclo real de la enfermedad. Por cierto, de confirmarse que el vector es un insecto sería un caso único en las afecciones micobacterianas.

Los avances, después de 60 años, son tan lentos debido a una frustrante característica de MU: se resiste a crecer en laboratorio. Por este motivo, las muestras tomadas de los organismos sospechosos (hemípteros acuáticos sobre todo) nunca han dado resultados positivos, nada aparece en los medios de cultivo tradicionales. Es más, nunca se ha aislado y localizado MU en la naturaleza de modo directo, como mucho confirmando la presencia de secuencias de ADN específicas: un indicio genético (hoy contestado además), no una confirmación fenotípica. Cuando las muestras proceden directamente de los enfermos es posible cultivarlas pero aún así son de crecimiento muy lento (varias semanas).

La belga Francoise Portaels, del Instituto de Medicina Tropical (ITM, Bélgica) ha dedicado su vida a la investigación de esta enfermedad, desde que en 1969 comenzara su tesis doctoral en el Congo y cosechara sus primeros fracasos con el MU. Hoy, casi 40 años después, ha conseguido aislar MU a partir de hemípteros acuáticos.

El procedimiento ha sido cualquier cosa menos cómodo, tomen la receta: se trituran los hemípteros (del género Gerris y capturados en Benin) en un mortero; la papilla se trata con esterilizantes específicos para garantizar que se ha muerto todo bicho viviente menos las micobacterias. Luego se inyecta el producto resultante en las patas de ratones de laboratorio, las habituales víctimas colaterales de todas estas cosas. Pásese de ratón a ratón dos veces durante dos años y finalmente se consigue que la bacteria comience a crecer en medios de cultivo convencionales. Del estado final de los ratones mejor no hablamos.

Las poblaciones son, por fin, de bacterias de verdad que forman una cepa llamada imaginativamente 00-1441. En el análisis de su ADN se ha encontrado una mutación concreta (un solo nucleótido) que también aparece en cultivos procedentes de enfermos de la misma región africana. La conclusión es que se puede establecer por primera vez una relación entre los cultivos procedentes del insecto y los enfermos, sugiriendo un origen común, estableciendo un nexo probable. Aún así, no hay evidencia de que los hemípteros triturados, del género Gerris, muerdan a la gente por lo que no está claro si tienen algún papel relevante en la transmisión de la enfermedad o si son simplemente contenedores pasivos de MU.

Tanto cuento para tan poca cosa, dirán ustedes, pero eso es lo que hay, en los laboratorios y despachos se estudian fenómenos elusivos, cuya comprensión es un lento proceso de desbroce en un sistema natural demasiado complejo. No hay remedios milagrosos, curalotodos ni panaceas mágicas o esotéricas. La medicina avanza poco a poco, con un gran esfuerzo individual y colectivo, no a golpe de iluminaciones ni de epifanías.

El bichejo en cuestión (de aquí)

Documentos: artículo original en PLoS Neglected Tropical Diseases; página sobre la UB en la OMS; una reseña en Science.

30 marzo 2008

Extremadura solar

Hace unos meses, Francisco Cuadros, catedrático de Física Aplicada en la Universidad de Extremadura presentó unas estimaciones sobre la superficie de colectores solares necesaria para cubrir la demanda total de España de energía (con unos impresionantes 455 votos en Menéame). Más recientemente y de forma independiente, en Wis Physics han hecho lo mismo. Yo he querido repasar las cifras, por aquello de que no me fío de nadie, completándolas y adaptándolas a un contexto más cercano.

La demanda de energía eléctrica

La demanda de energía eléctrica en España en 2006 fue de 254,000 GWh (uso la coma como separador de miles). La demanda en Extremadura en ese mismo año fue de 4,431 GWh. Extremadura produce mucha más energía de la que consume: la generación neta fue de 16,628 GWh. De estos, 14,939 se generaron en la central nuclear de Almaraz y 2,215 por energía hidráulica. De energías renovables más biomasa apenas salieron 66 y de carbón, fuel y gas nada (datos de REE). Obsérvese que la producción hidráulica cubre la mitad del consumo local.

¿Qué puede darnos el Sol?

Extremadura recibe una intensa radiación solar que se estima, sobre una superficie horizontal, unos 1,690 kWh/(m2·año). Usando las herramientas que tenemos en Solar Irradiation Data vemos que, para Badajoz y usando el ángulo vertical óptimo para una orientación Sur fija se llega a los 1,930 kWh/(m2·año), algo aún mejorable usando un sistema de seguimiento completo.

Este valor debe ser corregido tanto por el rendimiento de los módulos (que al día de hoy es bajo, de un 12% aproximadamente) como por diversas pérdidas: por temperatura, el propio sistema eléctrico... que en total, se pueden estimar en un 26%

Obtendremos, por tanto: 1,930 * 0.12 * 0.74 = 171 kWh/(m2·año). O, pasando a unidades más manejables, 171 GWh/(km2·año).

¿Cuántos km2 necesitamos para cubrir la demanda energética de Extremadura? Basta con dividir 4,431 GWh / 171 GWh·km-2 = 26 km2, un 0.062% de la superficie extremeña.

Lógicamente, las estimaciones anteriores son de brocha gorda y hay más problemas que solucionar: las líneas de evacuación, el desfase temporal entre producción y demanda, etc. Tampoco la superficie señalada es de suelo sino de paneles. La ocupación de suelo sería mayor, de entre 6,000 y 7,000 ha. En cualquier caso, es materia para pensar porque, aunque no puede dependerse de una sola fuente de energía, un par de miles de hectáreas de paneles solares cubrirían la mayor parte de la demanda actual y a mí, la verdad, no me parecen demasiado.

Quedan por discutir muchas cosas pero ninguna supone un reto técnico imposible en la actualidad. Recordemos que estamos en una situación donde dependemos casi completamente de energía importada, no renovable, en manos de unos pocos países (al albur de lo que se llaman "problemas geoestratégicos") y cuyo precio sube constantemente. Por estos motivos, avanzar en una independencia energética basada en energía local y renovable no tiene precio.

Dos ejemplos de proyectos diferentes y complementarios

El proyecto de mayor tamaño es el llamado Mérida Solar 2008 que, ubicado cerca de la ciudad que le da nombre, se plantea producir 72 GWh al año, un 1.6% del consumo actual extremeño. Su coste declarado es de 300 M€ lo cual supone unos 4.1 M€ por cada GWh al año.

Otro planteamiento diferente es el abordado por la Agencia Extremeña de la Energía, que está instalando paneles solares en 22 municipios de Extremadura de menos de 20,000 habitantes. Con un coste de 35,000 € por instalación, cada una de ellas rendirá anualmente unos 14,700 kWh (estimaciones mías, no contrastadas). Es un enfoque más descentralizado de la producción.

Un contexto donde no sólo el dinero cuenta

La única pega que se le puso al artículo de Francisco Cuadros en Menéame fue la del coste. Por un lado hubo errores ya que uno de los comentaristas habló de 6,000 €/m2 de colector solar, precio completamente erróneo (ronda los 600). Y claro, a partir de ahí la cosa se distorsionó.

Según los precios actuales de instalación, el coste total para cubrir la demanda actual de Extremadura está entre los 15,600 y los 18,200 M€. Es mucho dinero pero el gasto es también, en buena parte, ficticio: cuando el dinero se gasta no desaparece ni se destruye, sólo cambia de manos. En este caso va a las empresas que pagan sus impuestos al Estado y los sueldos a los trabajadores. Es una inversión que se amortiza porque genera un producto valioso a partir de una fuente de energía gratuita y fácil de recoger.

La inversión necesaria hoy no será la misma dentro de un año, ni tampoco el contexto en el cual valorar el gasto. Respecto a las células fotovoltaicas, ya existen de mucho mayor rendimiento que el considerado aquí por lo que sólo es cuestión de tiempo que salgan al mercado. Por otra parte, el petróleo incrementa su precio de forma incontrolada con lo que la factura energética española se dispara: un déficit de 3,660 M€ sólo en diciembre de 2007. Y es que importamos el 78% de la energía. El déficit en el 2008, con el crudo un 33% más caro puede ser espectacular.

28 marzo 2008

Sólo una anécdota

No todo es "gran ciencia". No todos son Premios Nobel o Medallas Fields. No todos son Arthur C. Clarke. Hoy en Science han dedicado un pequeño espacio a Brian A. Karpes a pesar de que el hecho reseñado parece banal.

Ese hecho es que Karpes presentó un poster el 13 de marzo pasado en la 39th Lunar and Planetary Science Conference celebrada en League City, en Texas. Llevó por título Cataloging Craters on Saturn's Moon Enceladus. Karpes pertenece al Departamento de Geología de la Northern Illinois University.

Un poster es un acontecimiento menor en la vida de un científico pero es seguro que Karpes recordará éste. Apenas un mes antes, el 14 de febrero, Karpes estaba con otros 150 alumnos y profesores en un auditorio de su universidad cuando Steven Kazmierczak entró y comenzó a disparar. Recibió cinco balazos. Hoy, a sus 27 años, es un placer darle la bienvenida aunque sea desde tan lejos.

El contraste lo ponen los estudiantes Gayle Dubowski, Julianna Gehant, Catalina Garcia, Ryanne Mace y Daniel Parmenter, que ya no terminarán sus carreras.

25 marzo 2008

Blogs, wikis y conductas inapropiadas

¡Niño, caca! dicen desde las altas autoridades. Leo en Juan de Mairena, que lo lee en Gooseania, que cita esta página de la Universidad de Manchester, que se titula (al menos la traducción es mía) Directrices sobre el uso de blogs y wikis y dice algo así:

El uso de páginas web interactivas y con varios autores, como es característico de los blogs, wikis y redes sociales, es cada vez más popular. Aunque la Universidad no desea obstaculizar el uso de estos sitios, usted [1] debe consultar previamente con su supervisor, mentor o inmediato superior para discutir las posibles implicaciones de participar en esos sitios. En particular, debe ser consciente de que publicar resultados preliminares, datos e ideas:

  1. Puede poner en riesgo la independencia y originalidad de su trabajo y tener efectos adversos cuando lo envíe para revisar o publicar.
  2. Puede perder la propiedad de su trabajo con consecuencias impredecibles para los derechos de propiedad intelectual sobre los resultados o productos de su trabajo.

[1] "Usted" se refiere a investigadores postgraduados y de plantilla.

Bueno, aquí tenemos a la UManchester velando por la correcta conducta de sus investigadores en internet, no sea que escriban un blog o hagan comentarios en otro destapando secretos, por no hablar de los inconscientes que son capaces de proponer ideas nuevas, comentar en foros científicos cómo le van las cosas o pedir ayuda para algún problema que tienen. Incluso podría haber algún tarado que pensara publicar sus preprints en lugares nefandos como ArXiv (con 469353 documentos disponibles a día de hoy). Discuta con su confesor "las posibles implicaciones" de sus actos ¿has escrito en algún blog esta semana? ¿cuántas veces, hijo? Miedo a la comunicación se llama eso.

En mi universidad las cosas no llegan a esto aunque últimamente hemos recibido una normativa curiosa sobre el "correcto" uso de la red. Entre otras cosas nos dicen que no debemos usar la red ("uso no aceptable") para:

  • cualquier acto que viole la legalidad
  • fines privados, personales o lúdicos
  • creación o transmisión de material que cause molestias a los usuarios de la UEX
  • distribución de material que viole los derechos de propiedad intelectual
  • destruir o modificar premeditadamente la información de otros usuarios
  • destruir, manipular o apropiarme indebidamente de información que circule por la red
  • usar u obtener cuentas ajenas

Les confieso que todavía estoy algo perplejo con el documento y aún no he decidido si me reconforta o molesta que la autoridad académica vele por mi conducta prohibiéndome violar la legalidad vigente (y la Constitución, supongo, y ya puestos, la Convención de Ginebra...) mediante una norma interna.

El resto (defina "fines personales", por favor) tampoco lo tengo claro: enviar un correo electrónico a mi casa ¿es un fin privado?, enviar el PDF de un artículo interesante a un colega ¿viola los derechos de propiedad intelectual? ¿qué es apropiarse "indebidamente" de material que "circula" por la red? O lo más importante ¿cómo van a saber ustedes si uso mi correo para "fines privados"? ¿cómo van a averiguar si visito webs "inapropiadas"?

En fin, los vigilantes de la playa del ciberespacio velan por nosotros aunque con tanta advertencia acabo siempre por creerme presunto culpable de no sé bien qué.

Grab this Widget ~ Blogger Accessories
 
º