Mostrando entradas con la etiqueta ciencia. Mostrar todas las entradas
Mostrando entradas con la etiqueta ciencia. Mostrar todas las entradas

11 marzo 2009

¿Hipnosis contra el dolor?

Salió en bastantes medios hace unos pocos meses: la hipnosis puede calmar el dolor de las mujeres que tienen un aborto temprano. La frase es ambigua (¿"puede calmar"?) y los subtítulos no lo mejoran salvo uno, el último, que se moja más:
  • Los fármacos alivian parcialmente el dolor durante un aborto (obvio)
  • El control del dolor sigue siendo un desafío para los médicos (obvio)
  • Un estudio señala la hipnoterapia como el mejor analgésico (no tan obvio)
  • ¿Será verdad semejante cosa? ¿Estaremos haciendo el tonto tomando fármacos en vez de someternos a hipnosis ante operaciones quirúrgicas en general o ésta en concreto? Bueno, tenemos ante nosotros la posibilidad de comprobarlo ya que el artículo parece serio y se ha publicado en una revista del ramo previa revisión. La referencia es la siguiente:
    Isabelle Marc et al., 2008, Hypnotic analgesia intervention during first-trimester pregnancy termination: an open randomized trial, American Journal of Obstetrics & Gynecology, 199(5): 469.e1-469.e9
    El objetivo del trabajo es "determinar si la analgesia mediante hipnosis puede reducir la necesidad de analgesia intravenosa sin aumentar el dolor ni la ansiedad durante la operación de aborto". El estudio se realizó con 350 mujeres que tuvieron que someterse a aborto con menos de 14 semanas de gestación. Un grupo (172) fue sometido a una "analgesia hipnótica estandarizada" antes y durante la intervención. El principal resultado fue, según el resumen del trabajo:
    Las mujeres que recibieron hipnosis requirieron menos analgesia intravenosa (63%) que el grupo de control (85%, P <>Lo cual les hace concluir que "la hipnosis puede ser efectiva como complemento al control farmacológico del dolor agudo durante el aborto".
    No he tenido contacto alguno con la hipnosis por lo que puedo estar equivocado al considerarla un método de sugestión cuyo "éxito" depende de lo susceptibles que sean las personas que se someten a ella. Bajo este punto de vista no me parece absurdo que una sesión bien llevada, unida a una persona sugestionable pueda llevar a los resultados que se muestran en el trabajo. Pero... ya saben ustedes de mi pasión por buscar agujeros en estas cosas.
    La primera circunstancia que me llama la atención del estudio es que 258 candidatas no fueron incluidas por razones diversas entre las cuales aparecen ser escéptica sobre la hipnosis, estar demasiado preocupada por el aborto o mostrar desinterés por la investigación (?)...
    La segunda es que dentro del protocolo se informa a las pacientes que pueden solicitar libremente sedación farmacológica en cualquier momento pero también se permite a los médicos administrar esa sedación si juzgan que la paciente siente dolor aunque ella no la pida.
    En tercer lugar, tanto médicos como pacientes conocen el experimento (no es un procedimiento ciego) y las pacientes saben en qué grupo están (hipnosis o control).
    Finalmente, el reparto en los dos grupos se realiza 30 minutos antes de la intervención y el grupo "hipnosis" comienza inmediatamente el tratamiento que consiste en una fase de relajación seguida otra fase donde se le dan "estrategias y sugerencias" para reducir el dolor. Estas estrategias se le recuerdan de nuevo en la mesa de operaciones. Mientras tanto el grupo control recibe un tratamiento normal con instrucciones para la relajación pero excluyendo instrucciones para reducir el dolor o la ansiedad.
    En resumen: 1) se excluyen personas que son escépticas respecto a la hipnosis (menos sugestionables), 2) los médicos pueden decidir si se administra sedación aunque la paciente no la pida, 3) médicos y pacientes conocen el experimento y 4) al grupo de control no se le da instrucciones específicas para controlar el dolor mientras que al grupo con hipnosis sí.
    Visto el experimento y sus circunstancias es inmediato preguntar:
    1. ¿Cómo se valora el efecto específico de la "hipnoanalgesia" si sólo se ha informado a un grupo sobre cómo reducir el dolor?
    2. ¿Por qué no se ha hecho un grupo sin hipnosis pero con instrucciones sobre el control del dolor?
    3. ¿Cómo se puede asegurar que los médicos no tienden a administrar mayor sedación al grupo de control?
    4. ¿Cómo se puede controlar el efecto de que las pacientes del grupo de control esperan sufrir más dolor que las del otro grupo?
    La percepción del dolor es un tema complicado y aún más difícil hacer un buen diseño experimental para controlar sus efectos. Aún así, creo que en el trabajo de Marc y colegas se han dejado algunos cabos sueltos. O será que eso de la hipnosis no me acaba de convencer.

    09 marzo 2009

    Obama y las células troncales

    Soy un firme partidario de la investigación con células troncales vengan de donde vengan. Las razones las expuse en De embriones y células madre, donde comenté la instrucción vaticana "Dignitas personae sobre algunas cuestiones de bioética". La cuestión subyacente puede resumirse en la consideración o no del cigoto y blastocisto como personas y, en caso positivo, como merecedoras de los mismos derechos que los humanos desarrollados. No voy a repetir consideración alguna, sólo mi postura personal: no considero que un embrión en estado de blastocisto pueda ser considerado una persona ni siquiera remotamente. Consecuentemente, tampoco considero que la investigación con células troncales embrionarias procedentes de embriones crioconservados sea éticamente criticable.
    En los EE.UU., el anterior presidente George W. Bush había prohibido la financiación pública de ese tipo de investigación en el año 2001 haciendo uso del veto presidencial en las dos ocasiones donde se intentó revertir la situación en el Senado., incluso por mayorías claras (63 contra 37 en el 2006). Las razones fueron "morales y religiosas". La noticia de hoy es que Barack H. Obama ha anunciado el levantamiento de esa prohibición con lo que en los EE.UU. se abre la posibilidad de financiar esas investigaciones con fondos públicos. La orden original la tienen aquí. Les dejo con la declaración de intenciones aunque merece la pena leer el documento completo:
    La investigación con células humanas troncales embrionarias y no embrionarias pueden ayudarnos a comprender mejor y a tratar varias enfermedades y condiciones discapacitantes. En la década pasada se han hecho avances alentadores en este campo, consiguiendo un consenso general en la comunidad científica de que la investigación debe ser apoyyada con fondos públicos.
    En los últimos 8 años, la intención del Department of Health and Human Services y del National Institute of Health (NIH) para financiar y dirigir la investigaciñin con células troncales embrionarias ha sido limitada por las acciones del Presidente. El propósito de la presente orden es eliminar esas limitaciones en la investigación, potenciando la financiación de la NIH y reforzando la contribución de los científicos de América (sic) en los nuevos descubrimientos y terapias en beneficio de la humanidad.
    Para mí es una buena noticia porque sólo sabremos hasta donde se puede llegar en el tratamiento de algunas enfermedades investigando sin excesivas trabas. En cualquier caso, los vetos unipersonales no me parecen la forma más razonable de regular nada.

    07 marzo 2009

    Ciencia y no-ciencia, 2

    Déjà vu

    En la entrada anterior mencioné dos características de la ciencia que permiten asignar valores de verosimilitud a supuestos hechos o datos: la posibilidad del contraste experimental y la coherencia con un corpus de conocimiento ya consolidado. También comenté que ninguna es definitiva ya que siempre es posible descubrir cosas radicalmente nuevas que derrumben parcialmente el edificio ya construido. Por ejemplo, la teoría de la relatividad que planteó Einstein fue una revolución y no encajaba en ninguna de las características mencionadas: no eran en ese momento objeto de experimento y le daban un revolcón a la gravedad newtoniana que era como se entendía entonces. Eran una gigantesca construcción teórica que fue aceptada poco a poco porque el proceso deductivo era impecable. Luego, algunas de sus predicciones fueron verificadas como, por ejemplo, que los campos gravitatorios modifican la trayectoria de la luz.
    Y aquí quería llegar: otras características que permiten diferenciar la ciencia de la pseudociencia están relacionadas con su estructura interna y su dinámica. Simplificando, el corpus de conocimiento de la ciencia está formado por hechos, hipótesis y teorías. Los hechos deben ser verificables, las hipótesis deben ser contrastables y las teorías deben, enlazando en un conjunto coherente el conocimiento previo, proponer nuevas hipótesis: si esta teoría es cierta, en tales circunstancias debería pasar tal cosa. Estas predicciones se someterán a verificación experimental que las refutarán o corroborarán. Ojo, que mientras que una refutación suele ser definitiva, una verificación nunca es completa porque sólo garantiza que la cosa funciona en las condiciones del experimento pero no puede ofrecer seguridades sobre lo que pasaría en escenarios alternativos.
    Las pseudociencias no funcionan así. Normalmente los hechos que defienden no son nunca verificables y sólo funcionan en condiciones fuera de control: ante la ausencia de escépticos, sólo si no hay medidores de campo cerca, etc. Si se hace un experimento y el resultado es negativo suele acudirse a disculpas que tampoco son verificables, como que el supuesto telépata perdió la concentración, o que hay energías negativas y cosas así. Lógicamente, tampoco se dan detalles sobre qué es "energía negativa" ni cómo puede medirse, cómo se origina...
    Las pseudociencias tampoco plantean hipótesis ni elaboran teorías, lo cual es lógico dada la imposibilidad de probar o refutar los presuntos hechos paranormales que las fundamentan.
    Esta ausencia de una estructura sólida es una buena pista para distinguir la ciencia del cuento chino. Para que se les tome en serio por la comunidad científica los defensores de la telepatía (sigo con ese ejemplo) deberían desarrollar una "teoría telepática", que explicara los principios del fenómeno y, a través del conocimiento adquirido, propusiera, por ejemplo, que la intensidad de la comunicación es constante y no desciende con la distancia entre emisor y receptor lo cual sería, por cierto, un descubrimiento extraordinario.
    ¿Está libre la ciencia de pseudociencia? Pues no, claro que no. Lo que pasa es que su propia dinámica permite separar el grano de la paja. A veces tarde, es cierto, pero las chifladuras acaban cayendo en el olvido o en el ridículo; por ejemplo, la dianética de Hubbard, la energía orgónica de Reich, la cámara Kirlian, los rayos N de Blondlot...
    ¿Les pongo una lista de pseudociencias y hechos a los que asigno personalmente una verosimilitud indistinguible de cero? Aquí van:
    • los poderes de las pirámides: la forma piramidal serviría lo mismo para dormir bien que para afilar cuchillas que para conservar los alimentos.
    • la levitación de gente (normalmente siempre muy lejos de nosotros) mediante la meditación, que permitiría violar la ley física de la gravitación
    • la telequinesia, que permitiría mover objetos sólo con el pensamiento
    • la telepatía, que permitiría la comunicación mental entre personas
    • la cirugía psíquica, según la cual algunos chamanes o curanderos harían cirugía mayor mediante sus manos, sin penetrar físicamente en los tejidos
    • la quiromancia, donde las arrugas de las manos describen el carácter del individuo y permiten conocer aspectos de su futuro
    • el tarot, como instrumento de adivinación del pasado, presente y porvenir
    • los biorritmos, una teoría que defendía que la suerte, los estados de ánimo y habilidades como la creatividad, potencia sexual y cosas así se debían a superposiciones de ritmos físicos, emocionales e intelectuales con periodos diferentes
    • la astrología, que afirma que la posición de algunos cuerpos celestes influye en el destino de las personas
    • el viaje astral, que permitiría personarse de forma no física en lugares lejanos mediante una disociación del cuerpo físico y del "cuerpo astral"
    • el espiritismo, práctica que permitiría comunicarse con espíritus normalmente a través de personas intermediarias llamadas mediums
    • la numerología, por la que se predeciría el futuro de una persona interpretando el orden de los números en la fecha de nacimiento o un valor numérico de las letras de su nombre
    • la radiestesia o rabdomancia, que facilitaría entre otras cosas localizar a personas mediante un péndulo o una varita sobre un mapa
    • la homeopatía, que pretende los poderes curativos de una sustancia pueden aumentarse reduciendo su concentración en agua, incluso hasta la desaparición física de la misma
    En fín, una chocante cantidad de propuestas que siguen siendo creídas por bastante gente, incluso en países desarrollados, donde la cultura está al alcance de todos. Una versión más ligera pero también mucho más lucrativa de la pseudociencia son productos como las plantillas magnéticas, los parches antigrasa, los revitalizantes a base de ginseng o jalea real, las dietas milagro, las pulseras magnéticas, el agua imantada...

    Para finalizar con este rollo que me he marcado, me gustaría destacar una diferencia más de funcionamiento entre ciencia y no-ciencia y que atañe a la experimentación.
    La experimentación es el primer carro de combate de la ciencia normal y se asume siempre un principio básico: todo experimento es repetible e independiente del experimentador. Por eso, es esencial que los experimentadores tengan un buen control sobre las condiciones del proceso; por ejemplo, algunas reacciones químicas sólo se producen en un rango concreto de temperatura, por lo que ésta deberá estar claramente controlada por el experimentador lo que deberá reflejarse en su cuaderno de laboratorio. Cualquier otro equipo en el mundo debería ser capaz de obtener los mismos resultados si replica el experimento. Y si no ocurre, la duda aparece y debe ser resuelta: ningún investigador toma en cuenta experimentos no repetibles.
    Este marco es antagónico con la no-ciencia. Por ejemplo, los poderes "psi" sólo se manifestarán en condiciones favorables, entendiendo éstas como la ausencia de controles y controladores que perturban el experimento con su agresiva incredulidad. Este marco es el que permite que, ante controles estrictos, los fenómenos paranormales no se produzcan. Según los paranormalistas esto no se debe a que el control evita el fraude sino que inhibe la potencialidad del sujeto. El principio de repetibilidad salta hecho pedazos y, con él, se instala la necesidad de que yo crea en experimentos que a mí no me funcionan y en resultados que no puedo repetir. Mi credulidad no llega a esos extremos.
    Y ahora les dejo, que el espíritu de Rhine me está echando aire helado en las orejas.

    03 marzo 2009

    Ciencia y no-ciencia

    Déjà vu

    Han visto ustedes que de vez en cuando hago un post comentando algunas afirmaciones tan extrañas que se sitúan incluso en la periferia de lo paranormal. O más allá. El más sorprendente para mí fue el dedicado a las entradas de a Tierra Hueca, una chifladura que, contra todo pronóstico, arrastra casi cien comentarios. Algunos de ellos me dejaron perplejo. Del mismo modo, la lectura de algunos blogs que en el saco de feeds tengo catalogados como "el lado oscuro" es igual de desconcertante. Para mí es un misterio cómo alguien puede creer que las psicofonías son mensajes del más allá, que Júpiter se ha encendido "en dimensiones superiores", o que las pirámides fueron construídas, obviamente, por extraterrestres. O incluso en las tres cosas a la vez.

    Creo que la respuesta está en las reglas que se usan para diferenciar lo verdadero de lo falso y rebuscando entre el medio millar de entradas de este blog encontré una serie donde toqué este tema. Por aquello de que están perdidas en el pasado, resucito hoy la primera copiando una idea de Mangas Verdes: la serie déjà vu.
    Hoy retomo la primera, algo retocada, que comienza con un comentario muy habitual cuando criticamos las pseudociencias:
    En mi llana y modesta opinión, creo que muchos cientificos, en ocasiones, se deberían apartar un poco de la senda del empirismo y mirar un poco más lejos; y con esto no quiero decir que se crea todo, pero tampoco rechazar cualquier versión de cualquier cosa, sólo por no ser totalmente consistente desde un punto de vista científico.
    No estoy cuadriculando a los científicos, lo que quiero decir es que muchos dicen que si no se puede probar científicamente, no existe o no es verdad.
    La visión que muestra ese comentario es compartida por mucha gente que no conoce bien lo que llamamos "método científico" que, más que un método, es un conjunto de prácticas comunes a la hora de trabajar y de compartir el trabajo y sus resultados.
    Empezaré comentando que la ciencia, en mi manera de ver las cosas, tiene un objetivo básico: aumentar el conocimiento colectivo y, con él, nuestra comprensión del mundo. Luego vendrán más cosas, el prestigio, el dinero, o lo que sea, pero eso es objetivo de los científicos, no de la ciencia.
    El conocimiento es el conjunto de datos, hechos y relaciones entre ellos que se demuestran ciertos o convencionalmente ciertos. Y aquí viene el quid de la cuestión ¿cómo distingo la certeza de la falsedad? O ilustrado en ejemplos ¿por qué acepto que la malaria se transmite por la picadura de un mosquito, que trasfiere un protozoo de un animal a otro? Y en cambio ¿por qué no acepto que exista la telepatía?
    Necesito herramientas que me permitan distinguir lo que debe incorporarse al conocimiento científico y lo que debe descartarse por no merecer credibilidad. Estas herramientas existen y, por decirlo muy simplemente, permiten asignar un valor de verosimilitud a hechos y teorías. Por ejemplo, si a mí me preguntan que verosimilitud (probabilidad de ser cierto) le asigno a la observación de un dinosaurio de 20 toneladas en el Lago Ness responderé que muy baja, próxima a cero. No la descartaré de forma absoluta porque ha habido casos de descubrimiento de especies que se suponían extintas, como el celacanto, pero el rechazo se refuerza porque la existencia del dino presenta otros problemas complementarios muy serios: a) 20 t son un bicho muy grande para haber pasado desapercibido hasta ahora, b) lógicamente, un sólo ejemplar no es viable en el tiempo y sería necesaria la presencia de una población de centenares de ejemplares para haber aguantado desde el cretácico hasta el presente, c) la comida que necesitaría una comunidad de bichos así no puede aportársela durante millones de años un lago oligotrófico como el mencionado, etc...


    Es importante notar que el hecho es extraordinario no sólo porque implique a un dino de gran tonelaje sino porque, además, la presencia del bicho genera un cúmulo de problemas colaterales que entran en conflicto con conocimientos ya consolidados que abarcan desde la genética (la endogamia conduce a la extinción a medio plazo) a la ecología (la producción primaria de un lago oligotrófico no es algo arbitrario) pasando por la pura física (las aguas son muy frías y un bicho como ese entraría en hipotermia en pocas horas).
    Por tanto, yo puedo creer que Nessie existe pero necesitaría un conjunto de pruebas muy sólidas que me expliquen cómo se han superado los problemas genéticos, ecológicos y fisiológicos mencionados. Si me las dan, no tendré problema en revisar todo el conocimiento que se haya refutado, es más, estaré encantado porque se abren horizontes apasionantes. Pero eso sí, mientras tanto seguiré asignando una verosimilitud infinitesimal al posible hecho.
    Fíjense que en el párrafo anterior he evaluado la supuesta existencia de Nessie sólo en base a si encaja o no con el conocimiento existente. No encaja, luego la verosimilitud es baja. Esa es una de las herramientas de la ciencia. Eso sí, si un día muestran al dino en un pecera (grande) la revolución será extraordinaria. Por tanto, la prueba en este tipo de casos es simple: enséñame al dino porque si no lo haces seguiré considerando su existencia como altamente improbable.
    La segunda herramienta de la ciencia es la posibilidad de someter una hipótesis a verificación. En todo aquello que no se pueda verificar experimentalmente la ciencia difícilmente entrará; no dirá que no existe, simplemente porque está fuera de su ámbito, que se limita a los hechos potencialmente verificables. Por ejemplo, la existencia de vida en Marte entra dentro del ámbito de la ciencia porque es susceptible de ser verificada. La telepatía también. Pero luego hay que atenerse a las consecuencias: si alguien defiende que la telepatía es un fenómeno real deberá diseñar un experimento que lo demuestre. Es más, si funciona el experimento la cosa no acabará ahí porque a continuación se iniciaría una línea de investigación donde deberían aclararse cosas como: qué tipo de energía se emite, cómo se codifica el mensaje, cuales son los mecanismos emisores y receptores y muchas cosas más relativas a la física y fisiología del hecho.
    Pero si me piden que incorpore al conocimiento científico una energía que no se puede medir con aparatos y que no está sometida a ley física alguna, me dejarán que no lo haga, lo siento.
    La telepatía fue investigada, cómo no, especialmente en el periodo posterior a la II Guerra Mundial. Era lógico dada la enorme transcendencia que tendría que un estado pudiera enviar mensajes de persona a persona sin acudir a encuentros físicos ni a medios escritos. Pero no funcionó a pesar de que hubo proyectos con financiación millonaria.
    Y en ciencia, cuando alguien afirma que ha hecho un descubrimiento, a) debe probarlo, al menos razonablemente y b) debe dar información suficiente para que otros grupos puedan replicar sus logros. Si no lo prueba, su afirmación no será normalmente publicada en ninguna revista, la forma de comunicación básica de los científicos. Si la réplica fracasa será considerado, en el mejor de los casos, como un error de laboratorio y, en otros, como un fraude. ¿Ejemplo? El caso de la fusión fría (ver post Necesito creer).
    ¿Por qué critiqué la "noticia" de una huella humana de 5-15 millones de años hallada en Bolivia? Pues porque no encaja con el conocimiento existente sobre el origen del género Homo ni de la colonización de América, porque la roca no es la adecuada, porque no muestra efectos de erosión y porque la huella está aislada, no hay un rastro coherente. ¿Por qué doy credibilidad a la huella de 1.5 millones de años en Kenia? Pues porque pasa todo lo contrario; encaja y amplía el conocimiento existente, el sustrato es adecuado, hay un rastro...

    Hay más herramientas para estimar la veracidad de las cosas pero esto ya es muy largo, las dejamos para otro día. Para rematar, vuelvo a las frases del comentarista del principio y le contesto: los científicos usan más herramientas que la experimentación, de hecho, muchas ideas nuevas se generan sin haber sido comprobadas mediante experimentos. En algunos casos la experimentación no existe, como en la matemática (si la aceptamos como ciencia) o va muy por detrás de la teoría, como en la física. Las cosas no se rechazan por ser parcialmente inconsistentes con el conocimiento existente, si fuera así no habría avances. Lo que pasa es que si se propone algo totalmente inconsistente quien debe probarlo es el que lo defiende.

    Nota: revisando los comentarios de la Tierra hueca encontré éste: "las fotos y videos de la tierra hueca inexistente seran publicadas en enero 2009" (lo de "inexistente" era una ironía hacia mí). Estamos en marzo de 2009: otro profeta fracasado.

    27 febrero 2009

    Una realidad no muy lejana

    Nos lo recuerda Eudald Carbonell en su blog Sapiens hablando Sobre la diversidad. Yo no había caído en ello y, al leerlas, me he quedado pensando en las implicaciones de estas frases y me ha parecido oportuno compartirlas aquí:

    [...] nuestro género emerge en el Plioceno africano hace unos tres millones de años. Desde ese momento, el linaje humano ha ido prosperando de tal forma que en la actualidad el único homínido vivo es el Homo sapiens. Lo más importante consiste en explicar que antes no siempre había sido así. Solamente hemos de retroceder unas decenas de miles de años y encontramos que en nuestro planeta vivían cuatro especies: Homo erectus y Homo floresiensis en Asia, Homo neanderthalensis en Europa y el Oeste de Asia, y el Homo sapiens en África y Euroasia. Ahora nuestro género está representado por una única especie: el Homo sapiens. La pérdida de diversidad ha sido vertiginosa desde hace unos 15000 años y sólo nosotros sobrevivimos a la extinción.

    Ya he dejado caer alguna vez que estamos demasiado acostumbrados a vernos solos y que eso nos lleva a creer que realmente lo estuvimos siempre, con esa distancia innegable con el resto de los seres vivos. Pero no, en España, hace menos de 30000 años los neandertales circulaban en lo que sería su último refugio antes de desaparecer y eran tan humanos como nosotros. Asimilar que existió un mundo reciente poblado por al menos cuatro especies de homínidos tiene, al menos para mí, repercusiones a la hora de valorarnos: afortunados pero del montón, brillantes pero con mucho por aprender, especialmente de nuestra historia (ya de paso, lean la mía con los neandertales, un recuerdo lejano que me gusta rememorar).

    Cada hallazgo en paleontología humana nos desequlibra cada vez más en nuestro pedestal de barro. El último son unas huellas de alguien que hace 1.5 millones de años caminaba por un valle de la actual Kenia.

    Una de las huellas recién descubiertas (foto tomada de aquí)

    08 febrero 2009

    Dataciones con carbono 14 y un experimento

    En una web creacionista encontré un argumento que explicaba que las dataciones con carbono 14 se basaban en un principio obviamente incorrecto y que los resultados correctos eran una confirmación científica de las teorías de la Tierra Joven.

    Antes comentaré unas bases muy generales de esta modalidad de datación para que luego juzguemos la mencionada explicación. El caso es que el carbono, parte esencial de la estructura de los seres vivos, presenta dos isótopos estables: el carbono 12 (98.9%) y el 13 (1.1%). El C12 contiene 6 neutrones y 6 protones en su núcleo mientras que el C13 contiene un neutrón más. Ninguno de ellos es útil para datación. Afortunadamente, existe un isótopo escaso pero real: el famoso carbono 14 o C14, descubierto en 1940, formado por 8 neutrones y 6 protones. El C14 es inestable y acaba por emitir una partícula beta con lo que se convierte en nitrógeno 14 (7 neutrones y 7 protones).
    Lógicamente, si no hubiera una producción más o menos continua de C14, éste habría desaparecido de la Tierra pues se habría transformado en su totalidad. La producción de C14 tiene lugar en la alta atmósfera por el choque de los rayos cósmicos con el N14 repartiéndose posteriormente por todo el planeta. Las plantas absorben carbono en la fotosíntesis (los tres isótopos) y los demás acabamos incorporándolo a nuestros tejidos comiéndonos unos a otros. Aunque el C14 está desintegrándose continuamente, durante la vida se mantienen unas relaciones C14/C12 aproximadamente constantes (como en la atmósfera) porque existe un continuo recambio. Al morir, sin embargo, dejamos de absorber carbono y el C14 comienza a disminuir ya que se transforma en N14 y no hay reemplazo.

    ¿Cómo puede usarse el C14 para datar un resto orgánico? Pues precisamente midiendo la relación C14/C12 en esos restos mediante detectores de partículas beta. En un resto reciente la relación será igual a la presente en el CO2 de la atmósfera de cuando vivía y en un resto antiguo será menor. El punto clave es fijar cual es la tasa de desintegración para poder establecer una relación entre el tiempo transcurrido y la relación C14/C12. Para eso se mide la tasa en cuestión y se estima el llamado periodo de semidesintegración, que es el tiempo que tarda en transformarse la mitad del C14 presente en una muestra. Para el C14, este periodo es de 5730 años. Eso significa que tras 5730 años, la cantidad de C14 original se habrá reducido a la mitad; tras otros 5730 años, a una cuarta parte y tras otros 5730 a una octava parte de la original. Según van quedando menos átomos de C14, el método pierde fiabilidad y el límite máximo para una datación por C14 es de unos 60 mil años.


    Uno de los casos más conocidos del uso de esta técnica fue la datación de la Sábana Santa. El artículo, publicado en 1989 en Nature, dió como resultado que tres laboratorios dataron la tela en los siglos XIII-XIV.

    Este comportamiento no es especialmente intuitivo y el argumento usado en la página creacionista que mencioné al principio es el siguiente: si al cabo de 5730 años se ha desintegrado la mitad del C14, tras otros 5730 años se habrá desintegrado la otra mitad por lo que 11000 años es límite de tiempo para usar el C14 en dataciones. Por ese motivo, muestras datadas en, por ejemplo, 40000 años son, en realidad, mucho más recientes, probablemente de unos 7 u 8 mil años. Los partidarios de esta argumentación la usan para acomodar las pruebas de datación a su particular cronología bíblica.

    El problema de la argumentación anterior es que es errónea por no entender qué significa "periodo de semidesintegración" ni comprender el mecanismo subyacente a la aleatoreidad de la desintegración de un átomo concreto. La clave está en que no podemos saber cuando un átomo va a desintegrarse, sólo podemos estimar su probabilidad en un periodo de tiempo concreto. El comportamiento de un átomo es impredecible en el sentido de que puede desintegrarse al cabo de unos segundos o al cabo de diez mil años: no podemos saberlo, sólo sabemos que lo hará en algún momento. En cambio, el comportamiento de un conjunto grande de átomos obedece a las leyes estadísticas y encontraremos, se supone, la tasa de decaimiento prevista.

    Como el concepto no es especialmente intuitivo, he preferido plantear un método alternativo a las ecuaciones matemáticas simulando en una sencilla hoja de cálculo la desintegración de 500 átomos de C14 a lo largo de 105 periodos de tiempo (1). Así veremos los resultados sin acudir a ecuaciones matemáticas. En la hoja, los 500 átomos de la "muestra" están en la primera columna y todos tienen para t=0 el valor 1 (C14, no se ha desintegrado). La desintegración de un átomo concreto se produce aleatoriamente y he fijado esa probabilidad en 0.05 para acelerar el proceso pero puede cambiarse, claro. En cada paso, un átomo se desintegra si de un generador de números aleatorios (2) en el rango 0-1 sale un número menor que 0.05. En ese caso, en la columna siguiente tomara el valor 0 y, lógicamente, cuando un átomo se desintegra queda en ese estado de forma permanente. Así vamos avanzando en el tiempo hasta el periodo o ciclo 105.
    ¿Cuál es la probabilidad de que un átomo concreto no se haya desintegrado en dos ciclos? Pues será de 0.95 * 0.95 = 0.9025; tras ciclos será de 0.8574 y así sucesivamente. O dicho de otro modo, tras un único ciclo se habrá desintegrado el 5.00% de los átomos, tras dos el 9.75%, tras tres el 14.26%, etc. A los 100 ciclos la probabilidad de que un átomo concreto no se haya desintegrado es muy baja, de 0.00592 aproximadamente.
    Como el proceso es aleatorio, los porcentajes anteriores no se cumplirán exactamente, tanto más por el reducido número de átomos del experimento (sólo 500). Los resultados están en forma gráfica y abajo les copio un par de ellos que muestran la cantidad de átomos de C14 que quedan en cada ciclo. Son muy parecidos pero no iguales:

    Gráficos resultado de simulaciones de desintegración aleatoria de 500 átomos de C14

    A partir de los gráficos es posible estimar el periodo de semidesintegración, que aquí corresponde aproximadamente al ciclo 14-15, donde quedan unos 250 átomos de C14. Y si vamos a los ciclos 28-30 veremos que allí quedan unos 125 átomos de C14. Conclusión: la regla de semidesintegración se cumple y cualquiera, sin aparato matemático alguno puede comprobarlo.

    No creo que los creacionistas de la web aquella acepten esto, claro (alguna excusa nueva se sacarán de la manga, como los de la Tierra Hueca), pero ha sido un ejercicio sencillo e interesante. Las dataciones por C14 tienen otros problemas, como la concentración de C14 atmosférico, que es variable en el tiempo, pero en este post sólo quería aclarar el concepto de periodo de semidesintegración y comprobarlo mediante un experimento virtual.

    (1) los periodos de tiempo o ciclos son arbitrarios en este ejemplo porque sólo nos interesa verificar que la desintegración se comporta como se dice.
    (2) la hoja está en formato xls (MS Excel); si la función aleatorio() no funciona, revise que tenga activa la casilla del Mení Herramientas - Complementos - Herramientas para análisis. Las sucesivs pruebas se realizan pulsando la tecla F9 con lo que todos los cálculos se rehacen incluyendo la generación de números aleatorios.

    31 enero 2009

    No todo es cuestión de dinero

    ¿Es esto verdad?
    La Factoría Española de Cristalización, un proyecto para investigar en cristalografía y proporcionar servicios a los investigadores, fue aprobada con todos los parabienes en la primera convocatoria del programa Consolider-Ingenio 2010, una iniciativa del Gobierno para fomentar la investigación de excelencia. Casi tres años después, el proyecto, de cinco años de duración, no se ha podido desarrollar porque el Consejo Superior de Investigaciones Científicas (CSIC), la entidad gestora, no ha sido capaz de proporcionarle el espacio necesario.

    El artículo completo de Malen Ruiz de Elvira titulado El precario científico de élite se publicó hoy en El País.

    28 enero 2009

    Calentamiento antártico

    La figura de abajo muestra los cambios de temperatura en ºC por década estimados a partir de medidas tomadas tanto por estaciones en superficie como desde satélites. En síntesis y según los autores del trabajo, la Antártida se ha calentado una media de 0.1 ºC por década desde 1957, con una subida acumulada de 0.5 ºC a nivel general y de algo más de 0.8 ºC en la Antártida Oeste (zonas en rojo, próximas a la Península Antártica). La tendencia no es homogénea y en la Antártida Este no se ha encontrado ninguna variación significativa mientras que la zona del Polo Sur parece haberse enfriado en las últimas décadas. En la imagen, los datos de temperatura se han superpuesto a una base topográfica generada por el Radarsat y la extensión de hielo corresponde a mayo de 2008.

    Imagen tomada de aquí (tendencia en ºC/década)

    De los datos existentes ya se conocía el evidente calentamiento de la Península Antártica aunque todo hacía suponer que era un fenómeno local, tanto más porque el interior del continente estaba aparentemente enfriándose. Los resultados de este trabajo no contradicen eso pero muestran que el calentamiento afecta a una zona más amplia de la Antártida Oeste, no sólo a la Península. Las tendencias en el resto del continente son de una magnitud mínima y pueden considerarse no significativas con la información disponible actualmente.
    ¿Cómo se ha hecho este trabajo? Pues intentando resolver el problema de que en la Antártida hay unas estaciones terrestres mal distribuidas aunque con largos registros, mientras que los satélites cubren bien toda la zona con buena resolución pero sólo desde hace relativamente pocos años. Los autores han establecido correlaciones entre ambas series de medidas para acabar estimando los "huecos" existentes en las series y rellenando zonas no cubiertas por las estaciones. Así han elaborado mapas de los últimos 50 años que cubren toda la Antártida. La técnica es interesante: se llama regEM de regularized expectation maximization y han desarrollado un módulo para usarlo en Matlab. Se supone que las técnicas usadas han permitido paliar los dos problemas básicos del asunto: la escasez y pésima distribución de las estaciones meteorológicas disponibles y el control de las incertidumbres que se propagan a lo largo de todo el proceso.
    Los autores insisten en que sus resultados no contradicen que parte de la Antártida esté enfriándose ni cuestionan la hipótesis de que el calentamiento de la zona Oeste se deba a un incremento general en la velocidad del cinturón de vientos del Oeste (que, por cierto, ya comentamos en este blog en otro contexto).

    La imagen superior ha sido portada de Nature esta semana.

    El algoritmo regEM está descrito en
    Schneider, T., 2001: Analysis of incomplete climate data: Estimation of mean values and covariance matrices and imputation of missing values. Journal of Climate, 14, 853–871.

    09 diciembre 2008

    Zombis, peces globo y Wade Davis

    Wade Davis hizo su tesis doctoral sobre algo muy raro. Antes diremos que Davis nació en Montreal a finales de 1953, estudió en Harvard donde se graduó en antropología y se doctoró en etnobotánica. Ya hablé de él en este blog por su maravilloso libro "El río". Copio ese breve post para ir haciendo boca.

    "En 1941, el profesor Richard Evans Schultes desapareció en la selva amazónica donde pasó los siguientes 12 años de su vida explorando ríos que no figuraban en los mapas, recolectando plantas desconocidas para la ciencia y estudiando la sabiduría y las costumbres de docenas de tribus indígenas de Ecuador, Perú, Brasil, Bolivia, Venezuela y, particularmente, Colombia." Treinta años después, dos alumnos suyos, también botánicos, Tim Plowman y Wade Davis siguen sus pasos. Tim Plowman morirá y Wade Davis escribirá este libro que recomiendo a todos los que quieran evadirse, al menos un rato, de la ponzoñosa actualidad de este país. Ojo, que luego hay que volver.

    Wade Davis; foto tomada de su página en National Geographic

    La historia que les cuento hoy es, creo, posterior a las aventuras compartidas con Tim Plowman. Comenzó en 1982, cuando Nathan S. Kline, un pionero en psicofarmacología, convenció a Davis para viajar a Haití. El objetivo era nada menos que investigar la existencia de un fármaco utilizado para la "zombificación", es decir, para la conversión de seres humanos en zombis.

    El interés de Kline se debía a que, por primera vez, creían haber localizado un caso zombi "casi" verificable, el de Clairvius Narcisse, que reapareció en su pueblo tras 18 años de ausencia contando que le habían convertido en un zombi y esclavizado durante ese tiempo. Las historias de muertos vivientes eran comunes en el folklore local pero nunca habían sido verificadas. Intervenían en ellas la víctima, recientemente muerta, y el brujo o bokor que la revivía desde su tumba para reducirla a la esclavitud. Otros casos mas o menos comentados fueron los de un tal Natagete Joseph, reconocido a los 13 años de su supuesta muerte, y una chica llamada Francina, localizada en estado catatónico a los 3 años de enterrada y cuyo ataúd se encontró lleno de piedras. Noten que estos casos no están comprobados y proceden todos de declaraciones o relatos.

    A mediados de los años 30 del siglo pasado se propuso la primera alternativa no sobrenatural a la historia. Según Zora Hurston, entonces estudiante en la Universidad de Columbia, la "zombificación" se conseguiría drogando a los vivos y no resucitando a los muertos. Con la droga se simularía la muerte del individuo que podría luego ser reanimado aunque con las funciones cerebrales severamente afectadas, lo que facilitaría el control sobre él y su sumisión.

    Siguiendo con nuestra historia, al cabo de unos pocos meses, Davis dijo haber resuelto el misterio zombi desde un punto de vista estrictamente farmacológico. Su trabajo constituyó su Tesis Doctoral y se publicó con el título de The ethnobiology of the Haitian zombi en el Journal of Ethnopharmacology en 1983 (vol. 9(1): 85-104).

    Davis consiguió muestras del supuesto "veneno de zombi" de cuatro fuentes distintas y encontró que contenían ingredientes bastante desagradables. Aunque la fórmula era diferente en cada lugar, había ingredientes comunes. Tres de ellos eran plantas psicoactivas: Datura metel, Datura stramonium y Albizia lebbeck. Otra media docena era fuertemente irritante. Finalmente, aparte de aditamentos propios del Callejón Diagon como restos de huesos humanos (lo más inocuo del mejunje), se localizaron cinco constantes de origen animal: una rana arborícola, un poliqueto, un sapo y dos o más especies de dos géneros de peces globo: Sphoeroides y Diodon. Todos ellos son químicamente raritos pero Davis se fijó especialmente en los peces globo, que tienen una propiedad interesante: contienen tetrodotoxina (TTX).

    Uno de los involuntarios protagonistas de la historia: Diodon holocanthus.

    La TTX bloquea los canales de sodio de las células produciendo insensibilidad y parálisis muscular. Como veneno se trata de un producto potente ya que la dosis letal es de unos 8 microgramos por kg corporal, miles de veces más tóxica que el cianuro.

    Según Davis, el bokor usaría el mejunje para inducir a un estado de intoxicación no letal pero indistinguible de la muerte en un examen superficial debido a la parálisis, cianosis y desplome de la tensión arterial. Posteriormente sería desenterrado y revivido de alguna forma (las fórmulas de "resurrección" eran inconsistentes). Todo ello, unido al shock, al envenenamiento por el conjunto de productos, al pánico y a las propias creencias en la realidad de los zombies sumirían a la víctima en un estado de profundo desconcierto y terror. El bokor le mantendría en ese estado mediante drogas o sugestión o ambas cosas.

    Y aquí podríamos parar diciendo que la ciencia logró solucionar un misterio reduciéndolo a su dominio terrenal. Pero no lo vamos a hacer porque el trabajo de Davis también debe ser examinado críticamente y posee algunos rincones oscuros.

    En primer lugar, Davis y Kline (que moriría en febrero de 1983) aceptaban de entrada que el fenómeno zombi era real, aunque resultara producto de las drogas. Y este punto sigue hoy sujeto a la más razonable de las dudas porque nada ha podido verificarse al respecto nunca. El caso de Narcisse no es fiable como no lo fueron ninguno de los anteriores ni siguientes.

    Tampoco es fiable la naturaleza del "veneno de zombi". Davis cita fuentes que hablan de su existencia, así como de un antídoto pero en ningún caso hubo pruebas concretas sino sólo rumores o declaraciones personales, la menos fiable de las fuentes. El supuesto antídoto fue también conseguido por Davis pero su composición era distinta en cada sitio y completamente inconsistente. Davis pasa de puntillas sobre este producto en su artículo centrándose en el que produciría la muerte aparente sin reparar en que la falsedad de uno arroja más dudas sobre la autenticidad del otro.

    Davis afirmó haberse introducido en pocos meses en el cerrado mundo de los brujos y sus sociedades secretas hasta el extremo de que le prepararon y dieron los venenos y fue testigo directo de una exhumación. Era algo sorprendente teniendo en cuenta que nadie lo había logrado nunca, incluyendo a Kline en sus 30 años de trabajos en Haití. Incluso creyéndole, la sospecha de una manipulación o engaño está siempre presente, especialmente sabiendo que las muestras del veneno fueron encargadas y compradas, lo cual pone en duda aún más su autenticidad: si alguien está dispuesto a pagar una fuerte cantidad por "veneno de zombi" ¿por qué no dárselo aunque haya que inventarlo?

    Pero las dificultades de la hipótesis de Davis no son sólo por cuestiones circunstanciales. En realidad Davis no analizó las muestras de veneno sino que dedujo sus propiedades, y especialmente la presencia de TTX, por los componentes. Tras sus publicaciones, algunas de las muestras fueron analizadas químicamente. Dos lo fueron por C. Y. Kao y Takeshi Yasumoto en la Universidad de Tohoku en Japón y son los únicos resultados publicados. Inicialmente, Kao no encontró que el producto tuviera efecto alguno administrado a ratones. El análisis posterior sólo mostró minúsculas trazas de TTX en ambas muestras lo que le llevó a escribir que su posible efecto en la "zombificación" carecía de fundamento. En otras seis muestras analizadas en Lausanne por Laurent Rivier entre 1983 y 1985 no se encontró nada de TTX y un segundo análisis en la Universidad de Niza dio esencialmente los mismos resultados: se encontró TTX en una sola muestra pero en concentraciones minúsculas de algunos nanogramos por gramo. En cambio, más recientemente Rivier se desdijo y señaló haber encontrado TTX en una muestra en concentraciones mucho mayores (5-20 microgramos/gramo).

    ¿Qué pasa aquí? Por qué desaparece la TTX de las muestras si es que hubo en algún momento? Según Kao, las muestras muestran valores de pH muy alcalinos (10) lo cual descompone irremediablemente la TTX en productos inocuos lo cual invalida la hipótesis original. Sin embargo, Davis argumenta que ese pH no se expresa en el polvo seco por lo que es el uso de un disolvente en el análisis lo que degrada la muestra. Un auténtico lío que sigue sin aclararse.

    La prueba directa más simple hubiera sido administrar el famoso veneno a nuestros sufridos compañeros de investigación, los ratones, y ver que pasaba. Lo hizo un tal Leon Roizin a la vuelta del primer viaje de Davis a Haití. Davis escribe como "comunicación personal" de Roizin que este vió que los ratones entraban en estado comatoso y con ausencia de respuesta a los estímulos. Tras unas horas (hasta 24 en algunos ejempares) se recuperaron son daño aparente. Roizin se mostró muy molesto por que estos resultados fueran divulgados por Davis ya que se trató de un experimento sólo preliminar y "entre amigos". La sospecha de que no se llegó a realizar o de que los controles fueron deficientes es grande porque nunca fue publicado ni repetido. Roizin devolvió el material y rechazó volver a hablar del tema.

    Tras todas las críticas, Davis acabó defendiéndose diciendo que su investigación tal vez necesitaría de más trabajo y tal vez fuera incorrecta pero nunca fraudulenta. Señala que el veneno tal vez no funcione siempre pero que es suficiente que lo haga en algún caso para que la "zombificación" sea un fenómeno real. Como ese posible caso sigue sin verificarse, el trabajo de Davis no puede considerarse de forma alguna como una prueba de nada. "No es mi propósito generar verdades absolutas", dijo. Y a mí me suena a salida por la tangente.

    Acabo insistiendo en que, aunque este trabajo huele a fiasco por demasiadas hipótesis ad hoc, demasiadas suposiciones y posibilidades no contrastadas y un método de trabajo deficiente, el libro que mencioné al principio, "El río", es magnífico. Si les gusta el género de viajes no duden en leerlo.

    07 noviembre 2008

    Sin noticias de Sutherlandia

    El National Center for Complementary and Alternative Medicines (NCCAM) comenzó a financiar un ensayo clínico hace un año. Lo conté en el post titulado Una prueba necesaria. Se trataba de probar un remedio de la "medicina tradicional" de Sudáfrica para curar o ralentizar el SIDA. Desde mi punto de vista, las expectativas no eran muy buenas ya que, con su medicina tradicional "funcionando", Sudáfrica es uno de los países con mayor incidencia de SIDA del mundo. Pero bueno, todo sea por la causa...

    La prueba se realizaría bajo los estándares habituales en la medicina "convencional". Casi cuatro millones y medio de dólares para comprobar si la Sutherlandia frutescens, poco menos que un medicamento universal según sus defensores, valía para algo.

    Este año 2008, en agosto o septiembre, se publicarían los primeros resultados. Lamentablemente no ha sido así. Lo curioso es que no aparece nada en la web del NCCAM sobre este tema desde primera la noticia del verano del año pasado. Con el resto de las entidades participantes ocurre lo mismo: la Universidad de Kwazulu-Natal no menciona nada en su página sobre la investigación sobre el SIDA. Lo mismo ocurre con la Universidad de Missouri (sólo una nota de prensa de finales del 2007), con la de Western Cape y en el International Center for Indigenous Phytotherapy Studies (TICIPS). Debería ser la joya de la corona, el estandarte que daría credibilidad a unas prácticas tradicionales en un país donde su ministra de sanidad Mantombazana Edmie Tshabalala-Msimang recomienda tratamientos basados en ajo y remolacha cuestionando los antirretrovirales. O donde su Presidente Thabo Mbeki cuestiona todo lo descubierto sobre el SIDA incluyendo la relación entre el virus y la enfermedad.

    En fin, habrá que esperar un poco más para conocer el uso de esos 4.4 millones de dólares. Mientras tanto, para que vayamos haciéndonos una idea del contexto en el que se mueve la prueba, les copio el texto que sobre la medicina tradicional nos regala el patrocinador del estudio (NCCAM, aquí).

    • La aproximación es holística, enfocada a la persona en su conjunto más en el un órgano o desorden concreto.
    • Cuerpo, espíritu y entorno son todos tenidos en cuenta.
    • Muchos médicos tradicionales usan rituales, hierbas y otras medicinas naturales, adivinación para obtener información por medios sobrenaturales, ofrendas, rezos curativos y remedios purgantes como enemas e incisiones.
    • Los diferentes tipos de médicos naturales incluyen a los inyangas, expertos en medicinas naturales, sangomas, espiritualistas que aconsejan y curan comunicándose con espíritus ancestrales, comadronas tradicionales y cirujanos tradicionales.

    Mientras intento digerir todo lo anterior, voy a sentarme a esperar si algún espíritu ancestral se comunica conmigo y me dice qué ha pasado con el estudio. Por falta de facilidades no será porque acabo de darme de alta en Skype y ¿qué mejor vía para una comunicación psicofónica?

    28 octubre 2008

    Sin dormir

    En un episodio de Expediente X aparecían personas que habían sido sometidas a un experimento para erradicar el sueño. Lo habían conseguido pero con consecuencias devastadoras para el individuo. Estos días leí apropiadamente -ya avanzada la noche- algunos hechos, hallazgos e hipótesis sobre ese estado que ocupa más o menos un tercio de nuestra vida. Algunas son conocidas pero las pondré igual para dar contexto a las otras.

    En una noche nuestro sueño pasa por fases alternantes de dos tipos diferentes: sueño REM (rapid eye movement) y sueño no REM (NREM) en ciclos de duración entre 90 y 120 minutos. En una noche solemos pasar por cuatro o cinco ciclos. La fase NREM se suele dividir en 4 etapas y la llamada SWS (slow-vawe sleep) incluye las dos últimas de sueño profundo.

    La fase REM aparece al cabo de una hora o dos de sueño y se caracteriza por una actividad cerebral relativamente intensa.

    La privación del sueño tiene graves efectos sobre la salud y estabilidad psicológica de la persona, motivo por el cual sigue siendo usada como método de tortura.

    El más largo periodo sin dormir que se ha comprobado fehacientemente es de 264 horas (11 días). Fue el caso de Randy Gardner que con 17 años se sometió al experimento en 1965 sin usar fármacos. No tuvo secuelas aunque sí serios problemas durante la prueba, incluyendo lapsus de memoria, fallos de lenguaje, alucinaciones y paranoia (ver aquí).

    Como siempre, hay quien ha experimentado más allá de lo prudente, aunque sea con ratas. Allan Rechtschaffen en la Universidad de Chicago mantuvo a ratas privadas de sueño. Los resultados fueron trastornos metabólicos, fallos en la regulación de la temperatura corporal y lesiones cutáneas. Tras dos semanas, las ratas murieron.

    Otros comprobaron que la privación sólo de la fase REM del sueño también es mortal en ratas al cabo de cinco o seis semanas.

    Se ha comprobado que la muerte por privación total de sueño se produce en muchos casos por septicemias. Algunos autores plantean que al cabo de dos o tres semanas se producen alteraciones en el sistema inmune que permiten infecciones generalizadas y mortales (discusión aquí).

    Actualmente se piensa que dormir es necesario para reprocesar información visual y consolidar la memoria reciente pero, por lo poco que he leído, nada está definitivamente demostrado ni consolidado.

    La mosca de la fruta duerme y se ha identificado un gen bautizado, previsiblemente, sleepless, que es necesario para el sueño en esa lejana pariente. Este gen codifica una proteína de nombre impronunciable cuya pérdida ocasiona una drástica reducción del sueño (mayor del 80%).

    Estos modelos "simples" de nuestro sueño no son, sin embargo, fiables ya que el sueño en ambos casos parece muy diferente: sólo las aves y los mamíferos tienen las fases REM y SWS en su sueño. El resto de animales, incluyendo otros vertebrados, carecen de ellas.

    Se ha propuesto que las fases REM y SWS son respuesta a las grandes necesidades de procesamiento de información espacial y visual, memoria y aprendizaje de los cerebros más complejos. Durante esas fases del sueño el cerebro procesaría la información del periodo de vigilia y se prepararía para abordar otro nuevo y complejo día de sensaciones. Otros animales con menos "entrada" de estímulos e información no necesitarían estas fases específicas y tendrían un sueño cualitativamente diferente.


    Descanso en la construcción del GE Building en Nueva York. Foto de Charles C. Ebbets, 1932)

    Ni siquiera el sueño sin fases REM ni SWS es algo universal. Incluso entre los vertebrados los hay que no duermen nunca. Entre ellos están algunos ejemplos más bien exóticos como los peces ciegos habitantes de las cuevas. En este caso, la ausencia de información visual haría innecesarios esos periodos de procesamiento.

    Otros casos son mucho más comunes: peces que viven en cardúmenes y que están en movimiento continuo y coordinado. Se ha planteado que la ausencia de sueño en estos casos se debe a que este tipo de comportamiento reduce drásticamente las necesidades de procesamiento visual y, en general, sensorial. Por un lado, el comportamiento común en movimientos puede estar casi automatizado, sin intervención de procesos de decisión más complejos. Por otro, el entorno de aguas pelágicas es muy homogéneo y sin elementos diferenciados (no sería así en un arrecife, por ejemplo) por lo que los individuos apenas necesitan memoria ni procesamiento de información de su entorno.

    Los trastornos del sueño son comunes. El caso extremo lo constituye el llamado insomnio familiar fatal, una enfermedad provocada por priones (1 y 2) que provoca un insomnio progresivo e intratable. La ausencia de sueño acaba por provocar la muerte previos síntomas similares a los de Randy Gardner: ataxia, hipertermia, alucinaciones...

    Son las seis de la mañana y llevo tres días durmiendo mal, algo inusual en mí ¿qué mejor tema para estas horas de escasa concentración y cansancio?

    12 octubre 2008

    El hombre de paja y un mundo de fantasmas

    Juan Manuel de Prada se queja esta semana en el XLSemanal de las críticas recibidas por su "Creacionismo". No las refuta, claro, sino que, lastimero, insiste en moverse en su mundo, ese extraño mundo donde entes inmateriales gobiernan el universo y nos imponen el pensamiento recto bajo amenaza de castigo eterno. Si quieren ver un ejemplo químicamente puro de la falacia del hombre de paja (y sonreír con un punto de tristeza) lean su deposición de esta semana. En ella mezcla sin rubor aparente ciencia con espiritismo, ideologías (no dice cuales) con los hooligans del libre mercado, la bolsa con el oración curativa. Todo vale en ese totum revolutum donde lo único que demuestra es su debilidad argumental y su incapacidad de hilar un razonamiento simple sin recursos tramposos.

    Al final, don Juan Manuel me apena un poco, tengo que reconocerlo. Creo que en sus escritos se refleja, más que su ignorancia en lo que a la ciencia se refiere (que también), su desesperación porque la oscuridad en la que se sentía cómodo va desapareciendo a marchas forzadas. Antes, lo que eran grandes "misterios" sólo encontraban explicación (es un decir) en poderes sobrenaturales ejercidos por entes necesitados, casi siempre, de urgente tratamiento psiquiátrico. Ahora ya no, lo siento. Hace tiempo que empezamos a darnos cuenta de que esos seres son tan necesarios para entender el mundo como el hombre del saco o las meigas.

    ¿No se ha dado cuenta don Juan Manuel de que el conocimiento que nos da la ciencia nunca ha necesitado volver al mito? Ningún "misterio" desvelado ha tenido que ser revisado para retornar a la divinidad como explicación razonable. En la breve historia de la ciencia, incluso cuando una idea se ha demostrado errónea, ha sido para avanzar en esa inmensa construcción humana y arrinconar a los espíritus y ectoplasmas como explicación del mundo. Mal que le pese a algunos, es muy improbable que tengamos que volver al martillo de Thor para explicar los truenos o al diseño divino como causa de la fisiología del camello (Harun Yahya dixit aunque no se lo crean).

    En contraste, todo el histórico montaje de dioses con mediums que los canalizan se diluye con rapidez y sin pausa. No es que la ciencia se haya propuesto ese objetivo sino que es un efecto irremediable del hecho de saber más de nuestro universo. Ante su desconcierto, el mundo de fantasmas de Juan Manuel de Prada se queda sin papel y él sin argumentos. ¿Multiplicación de panes y peces, dice? A otro perro con ese hueso, señor de Prada. Y no, tampoco creo en los Reyes Magos de la Bolsa. ¿O es que no sabe que hay mucha gente así?

    P.S.: les juro que eso de los Reyes Magos sólo es por la frase hecha.
    En El fondo del asunto Fernando ha tenido más paciencia que yo y desmenuza el artículo en el post Prada y los molinos de viento (gracias Ricardo).

    08 octubre 2008

    Imágenes íntimas

    La imagen de abajo es uno de los trabajos del equipo de Anders Persson, ganador del premio Lennart Nilsson 2008, especifico para "creadores de imágenes científicas extraordinarias". Es un jabalí fiambre analizado mediante tomografía de alta resolución.

    Persson dirige el Center for Medical Image Science and Visualization en la Universidad de Linköping (Suecia), donde se han dedicado a desarrollar técnicas de visualización 3D basadas en resonancia magnética, tomografía de rayos X, ultrasonidos, tomografía de emisión de positrones...

    Los resultados tienen aplicaciones generales pero también muy específicas: desde autopsias virtuales hasta angiografías (con el sujeto vivo en este caso, claro). La pena es que la web del grupo posee un banco de imágenes muy limitado y con poca resolución. La información disponible tampoco es como para invitarlos a nada. Podrían ser un poco más generosos y mostrarnos imágenes no reducidas pero bueno, démosles un poco de tiempo. La galería del premio muestra 15 imágenes que curiosamente no están en la web del CMISV.

    Abajo les dejo la inquietante imagen de los vasos sanguíneos de un caballo.

    26 septiembre 2008

    Bosque de cristal

    La NSF presenta a los ganadores del concurso llamado International Science & Engineering Visualization Challenge. Les pongo abajo la imagen ganadora del apartado "fotografía" a la espera de que pongan en internet algunas más (por ahora sólo hay una nota de prensa).


    "Bosque de cristal" muestra una comunidad de diatomeas (algas unicelulares) con unas paredes externas de sílice y que están sujetas a alguna parte de un hidrozoo. La imagen fue tomada con un microspopio electrónico de barrido.
    Maria de Stefano, de la Segunda Universidad de Nápoles.
    Para los que quieran algo más de precisión, la diatomea es Licmophora ehrenbergii y mide unas 30 micras. Su sustrato es Eudendrium racemosum.

    Mientras esperamos al resto, podemos repasar las imágenes del año pasado: 2007 Visualization Challenge.

    21 septiembre 2008

    [NC] Un nuevo bactericida contra cepas multirresistentes

    La multirresistencia de los microorganismos a los antibióticos es probablemente el problema más serio que existe en la salud humana. La localización de nuevos productos es esencial ya que sólo es cuestión de tiempo que estos pequeños seres se adapten a los antibióticos de cada momento. Sin embargo, también es muy difícil y cada vez se tarda más en conseguir un nuevo producto significativamente diferente de los anteriores. De hecho, han surgido muy pocos en las últimas décadas.

    Hasta ahora había un vacío llamativo en esta cuestión: la ausencia de antibióticos que impidieran la división celular en bacterias. Todos actúan de otras formas, destruyendo la pared celular, por ejemplo, o afectando a los ribosomas (que son diferentes a los presentes en nuestras células, lo cual reduce la toxicidad).

    La noticia es que ya existe un producto que actúa sobre la división bacteriana, lo cual en mi opinión es un paso importantísimo en la permanente lucha contra la enfermedad. Es una noticia que, como muchas otras, pasa completamente desapercibida pero como aquí vamos contra corriente se la cuento:

    David J. Haydon, de la empresa Prolysis, y 18 firmantes más presentan un artículo donde anuncian que han sintetizado una pequeña molécula que actúa sobre una proteína llamada FtsZ.

    La FtsZ es una proteína que no existe en los mamíferos, que usan otra diferente para la misma función: forma un anillo en el lugar donde aparecerá el nuevo tabique o septum que separará las dos células en el proceso de división. Ese anillo aglutina otras proteínas que acaban formando el tabique y separando las células "hijas".

    ftsz2 Alineación al centro

    El anillo de división en E. coli, visible mediante microscopía de fluorescencia.

    El equipo de Haydon presenta la molécula llamada PC190273 que penetra en las células e inhibe la FtsZ. La duplicación cromosómica se realiza pero la división celular no y la bacteria muere.

    PC190723

    PC190273

    Los ensayos in vivo se han realizado en ratones sometidos a una dosis letal de Staphylococcus aureus. Los resultados fueron claros: una supervivencia del 100% frente a la del 0% para una dosis de 30 mg/kg. PC190273 se ha mostrado eficaz contra otra docena de bacterias, casi todas estafilococos. Una de ellas, la cepa MDRSA de S. aureus, es una joya difícil de manejar ya que es resistente a la meticilina, oxacilina, ampicilina, gentamicina, eritromicina, penicilina, azitromicina, amikazina, amoxicilina, cefalotina, clindamicina, ceftriaxona, imipenem, lincomicina, estreptomicina, perflozacina, rifampicina y neomicina. También cayó, como las demás. Toda una esperanza que la gente debería conocer.

    MRSA_SEM_7821_lores

    Staphylococcus aureus (de Wikimedia)

    El artículo: An inhibitor of FtsZ with potent and selectiva anti-staphylococal activity, Science, 321: 1673-1675.

    19 septiembre 2008

    Sólo "moderadamente científico" por favor

    Sí, una frase rara, pero no crean que lo es para todos. Resulta que al Vaticano le ha dado por organizar últimamente congresos científicos. Comenté uno en la finalizada Expo de Zaragoza donde, se supone, se iba a hablar de ecología. Sólo que no había ecólogos.

    Ahora anuncian otro sobre evolución. Se celebrará en Roma en marzo del próximo 2009 como celebración del 150 aniversario de la publicación de "El origen de las especies". Hasta aquí todo bien. O mejor, porque dice el jesuita Marc Leclerc que los organizadores buscan que la conferencia sea estrictamente científica ("wanted to create a conference that was strictly scientific").

    Esto les ha llevado, por ejemplo, a excluir al creacionismo y al diseño inteligente ("we did not think to invite supporters of creationism and intelligent design"), por no cumplir unos requisitos suficientes sobre su naturaleza científica. Podría felicitarles por ello aunque sea algo bastante evidente.

    Pero... esto no podía salir bien, decía el compañero pesimista de Leoncio.

    Y es que dice el arzobispo Gianfranco Ravasi, sin que se le mueva el solideo, que el otro extremo del debate sobre evolución, que son los que proponen una concepción demasiado científica de la evolución y de la selección natural, tampoco serán invitados.

    Y aquí es, en esta frase, donde don Gianfranco demuestra que no entiende nada. Aunque este blog no esté dentro de sus lecturas (no se lo reprocho) aquí le dejo cuatro puntos muy simples que cualquiera puede entender, a ver si aclaramos las cosas:

    • no hay debate científico sobre la evolución; las parodias creacionistas son una caricatura risible para cualquiera con algo de cultura científica y no son ni han sido nunca objeto de debate científico.
    • la equidistancia entre creacionismo y ciencia es una majadería. Es tan impertinente como buscar la equidistancia entre un estafador y una persona honrada.
    • no existe un evolucionismo "excesivamente" científico, sólo científico. No existe tampoco otra forma de estudiar la evolución que desde la ciencia.
    • como consecuencia de lo anterior, esos "dos extremos" en el "debate" sobre evolución sólo existen en la imaginación de algunos.

    En conclusión, van a hablar de evolución desde un enfoque estrictamente científico pero sin científicos. ¿De qué van a hablar entonces? Lo dice Marc Lecrerc: "de filosofía y teología junto con los últimos descubrimientos científicos".

    Sí, han leído bien, teología en un congreso "estrictamente científico" de donde se excluyen los "excesivamente científicos". Luego dirán que no se les entiende bien. Yo, por mi parte, les prometo no organizar un congreso sobre Teología a base de botánicos. Aunque solo sea porque me parece un chifladura.

    Actualización: en 2cat24 mencionan algunos de los que sí han sido invitados: "A la conferència participaran especialistes com el premi Nobel Werner Arber, el neuròleg Marc Jeannerod o el premi Templeton Michael Heller, entre altres.!

    Anna ha buscado quienes son estos insignes personajes y se ha encontrado con una pequeña sorpresa: Werner Arber es partidario y defensor del Diseño Inteligente. Observen que el artículo anterior está publicado en la web del Institute for Creation Research. Y se preguntarán ustedes ¿pero no habíamos quedado en que esto quedaba fuera del congreso? Es lo mismo que me pregunto yo.

    (Noticia vista por primera vez en Pharyngula).

    Para terminar: en un lateral del blog tengo una pequeña sección sobre tonterías leídas por ahí. Les copio aquí una que viene a cuento:

    El origen del hombre no puede deberse exclusivamente al azar, pero tampoco debemos caer en un creacionismo excluyente: la hipótesis más razonable es un evolucionismo moderado (Monseñor Raúl Berzosa, obispo auxiliar, sólo moderadamente, de Oviedo, ver para creer).

    15 septiembre 2008

    Nubes que predicen terremotos: razones para dudar

    Un químico chino, ya jubilado, llamado Zhonghao Shou, dice que puede predecir los terremotos basándose en las nubes. Dice el señor Shou que la presión interna en la corteza terrestre genera vapor de agua que escapa a la atmósfera por grietas del terreno. Al enfriarse en la atmósfera genera nubes de formas lineales características. Y dice también que él es capaz de reconocer esas nubes. Zhonghao Shou y sus nubes merecieron una reseña en Microsiervos, donde pueden leer una síntesis del asunto. y un estusiasta post en Kirai.

    Su imagen más famosa es la que presuntamente precedió al terremoto de Bam, en Irán, en la madrugada del 26 de diciembre de 2003. Observen la nube etiquetada como earthquake cloud. Impresionante.

    bamcloud1

    Imagen de Bam desde el satélite IndoEX (IODC) tomada de los trabajos de Shou.

    Afirma Shou lo siguiente:

    • que es capaz de predecir terremotos con varios días de antelación señalando el epicentro de los mismos.
    • que puede hacer predicciones tanto groseras como finas no sólo de cuando y donde ocurrirá el terremoto sino también de su magnitud.
    • que todo esto lo hace detectando y analizando nubes "no meteorológicas" cuya presencia está relacionada con futuros terremotos.
    Hay que destacar que la conexión entre nubes y terremotos no ha sido ignorada por los especialistas pero sí, tras analizar las evidencias, aparcada. Shou insiste en que esa correlación existe y que, además, ha hecho 50 predicciones de las cuales se han cumplido 36.

    El análisis, en principio, parece fácil ya que sólo existen dos documentos sobre el tema: su página web y un artículo de 24 páginas presentado en un seminario sobre el desastre de Bam. En este artículo se supone que expone sus argumentos y las pruebas que los sostienen.

    Lamentablemente, la cuestión no es tan simple, básicamente porque artículo y web son difícilmente comprensibles. Leído lo fundamental del asunto, la sensación que me queda es que todo es un gran bluf.

    El artículo comienza proponiendo el modelo para la formación de las nubes sísmicas. No hay evidencia de que ese modelo se corresponda con la realidad y Shou tampoco presenta gran cosa. Según él, hay abundante "evidencia anecdótica" (sic) para la existencia de altas temperaturas y presión de vapor, lo cual usa para apoyar la existencia de las nubes sísmicas. Estas nubes se formarían a partir de chorros de vapor a alta presión que saldrían del suelo.

    El trabajo tiene varios problemas serios que me hacen descartarlo como válido. El primero es la falta de pruebas. La mayoría de las veces todo es argumentativo sin que se aporte ninguna medida, cita o dato que lo apoye. A veces es aún peor: la foto siguiente se usa como prueba de que antes de un terremoto se escapan vapores a alta presión.

    techp

    En efecto, es un techo desconchado. Lástima que falte la foto del suelo roto por la presión porque sino estos daños son indistinguibles de los provocados por una gotera o por una fuga en el lavabo del piso de arriba. Todo ello por no señalar la minúscula escala del evento. Lamentablemente, las "pruebas" de Shou suelen mostrar la misma falta de rigor. Para no cansarles ni extender esto indefinidamente voy a comentar sólo la famosa imagen de Bam que les puse arriba.

    La imagen de BAM

    La nube sísmica de Bam es claramente visible y llamativa. Shou dice que es una imagen del satélite IndoEx. Les comentaré que este satélite, llamado formalmente Meteosat VISSR (IODC), es geoestacionario y está a unos 35800 km de distancia sobre el Ecuador y 57º E de longitud.

    Hay que avisar de que los rótulos de la imagen están añadidos a posteriori, incluyendo la hora y la fecha. Se supone que son las 0.00 h del 21 de diciembre de 2003.

    La imagen, según Shou, proviene de la Dundee Satellite Receiving Station donde podemos descargarlas en el Geostationary archive. Lamentablemente, sólo están disponibles las imágenes desde el 2005 (2005-2007 y 2007-2008) con lo que, aparte de empezar a preguntarme dónde las ha conseguido el señor Shou, no he podido comprobar directamente la del 2003. Pero hay vías alternativas.

    Nuestro protagonista de hoy se lamenta en su web de no disponer de imágenes con mayor detalle. Yo le he hecho parte del trabajo ya que algunas están disponibles para descargar libremente en GLOVIS.

    Abajo tienen dos vistas sobre la zona de Bam tomadas con el satélite MODIS para dos fechas distintas (ignoren el cuadrado amarillo, que no significa nada). Una es anterior en dos días al terremoto y la otra posterior.

    MODIS19_12_2003 mosaic 19 de diciembre de 2003

    MODIS27_12_2003 mosaic

    27 de diciembre de 2003

    Observarán (yo lo hice con cierto asombro) que en esas fechas las nubes no coinciden con la imagen de Shou.

    Posteriormente localicé imágenes de exactamente el mismo día 21 de diciembre de 2003. Abajo les pongo una de ellas, tomada a la 10 h por el sensor AVHRR del satélite NOAA (1). No es de muy buena calidad porque son escenas reducidas sólo para visualización pero creo que es suficiente para corroborar que la nube de Shou no aparece.

    image

    ¿De dónde salieron las supuestas imágenes del 21 de diciembre de 2003? Eso sí es un misterio porque el autor nunca da detalles sobre el número de inventario o cualquier otra información que permita verificar que la fecha es correcta.

    En el resto de imágenes (hoy inaccesibles en su web) hay otros detalles molestos que hacen sospechar de la exactitud de las afirmaciones de Shou. Uno es que en la mayoría de las fotos, si no en todas, las nubes señaladas son indistinguibles de cualquier otra. Bam es un ejemplo único por su claridad pero vean la imagen de abajo ¿alguien ve algo donde señalan las flechas? Pues todas son así.

    200805102100jChinaC

    Y otro detalle tal vez insignificante pero que a mí me llama la atención es que el coautor del trabajo de Bam, Darrell Harrington, firma como miembro del Earthquake Prediction Center de Nueva York. Buscando por internet parece que este centro en ese lugar sólo existe en la imaginación del señor Harrington.

    Conclusión: no se si esta historia de las nubes sísmicas acabará confirmándose o no pero actualmente está llena de detalles extraños que hacen dudar mucho de su seriedad. El tiempo, como siempre, pondrá las cosas en su sitio y podré rectificar si me equivoco. Por el momento, la idea de que los terremotos van precedidos de nubes especiales, distinguibles del resto, queda para mí en el mundo de lo no probado y, en el caso de Shou, sujeto a fuertes sospechas de engaño.

    (1) Por si quieren localizar el original, el Inventory ID es el 2948421. La imagen es del tipo "Global Area Coverage (GAC) 4KM Level 1B" y puede buscarse en el NOAA Satellite and Information Service.

    01 septiembre 2008

    LISA y las arrugas en el espacio-tiempo

    LISA es el acrónimo de Laser Interferometer Space Antenna. Y ha salido a buscar lo que aún se nos escapa, aunque deberíamos estar inmersos en ellas: ondas gravitacionales o, más poéticamente si cabe, arrugas en el espacio-tiempo. LISA es, en buena medida, el experimento complementario del LHC. Ambos buscan comprobar algunas predicciones que las teorías hacen sobre nuestro universo. El LHC en lo minúsculo, Lisa en lo gigantesco. El LHC implica unas decenas de km de túneles y miles de toneladas de material para examinar los resultados del choque de protones. Lisa es aún más sorprendente como veremos luego.

    Ambos experimentos indagan sobre los primeros instantes del universo, sobre su evolución posterior, sobre su estructura íntima a escalas difíciles de entender. Todo ello para satisfacer nuestro instinto de conocer, para aportar algo más conocimiento y que todo lo que vamos aprendiendo, poco a poco, se acabe integrando en una teoría coherente y verificada.

    LISA está diseñada para la detección de ondas gravitacionales. Estas ondas se predicen en la Teoría de la Relatividad General pero hasta el presente no han sido detectadas directamente por los instrumentos terrestres. La TRG señala que los objetos masivos deforman el espacio-tiempo y, consecuentemente, alteran el camino que la luz u otros objetos siguen al pasar cerca de ellos. Esta desviación de la luz predicha por la teoría ya fue observada hace décadas. Pero también se predice que la perturbación del espacio-tiempo por objetos muy masivos en movimiento generará cambios en el tejido del espacio-tiempo que se propagarán por el espacio como ondas en un estanque. El paso de esas ondas es lo que LISA buscará.

    LISA está formada por una trinidad de pequeñas naves espaciales. Son iguales, con la forma de pastilla cilíndrica, apenas 1.8 m de diámetro por 50 cm de altura, nada que ver con los modelos de las películas de moda. Estas tres naves formarán un triángulo equilátero cuyos lados medirán 5 millones de km y seguirá a la Tierra en su órbita alrededor del Sol a unos 50 millones de km de distancia. Rotarán lentamente en un plano inclinado 60º respecto a la eclíptica. Las tres estarán en comunicación entre sí y la Tierra. Lo primero mediante láseres que medirán la distancia y detectarán cualquier posible modificación en sus posiciones, lo segundo mediante una más convencional comunicación de radio que permitirá conocer los datos y enviar órdenes para, por ejemplo, corregir las trayectorias.

    Dentro de esos cilindros habrá dos peculiares objetos: dos cubos de una aleación de oro y platino de 4 cm de arista y con sus caras perfectamente pulidas. Estos cubos flotarán libremente en el interior de cada nave, aislados y protegidos por su "envoltorio" de cualquier otra fuerza que no sea la gravedad. Su posición estará permanentemente determinada con exactitud y precisión enormes mediante interferómetros láser montados en cada nave. Si las ondas de gravedad existen podrán ser medidas por los cambios en las posiciones de los seis cubos. Para mí es un prodigio de imaginación y sencillez: cubos flotando en el vacío que se moverán levísimamente al paso de las ondas de gravitación.

    Para detectar estas ondas LISA observará tanto dentro de nuestra galaxia como en galaxias lejanas: sistemas binarios de estrellas de neutrones, estrellas en caída hacia agujeros negros o fusiones de estos son fenómenos que deberían emitir grandes cantidades de energía en forma de ondas gravitacionales. Todo esto lo sabremos dentro de pocos años ya que los tres componentes de LISA, ya en construcción por la Agencia Espacial Europea y la NASA, serán lanzados conjuntamente en el año 2015.

    Nota: sólo porque suenan parecido, si quieren conocer a la algo más terrenal Lena pasen por aquí.

    LISA en su periplo alrededor del SOL. Se prevé que dure cinco años desde su lanzamiento.

    Grab this Widget ~ Blogger Accessories
     
    º