31 diciembre 2007

El nacimiento de un alfabeto

Para fin de año un post de digestión lenta

Nota: no todos verán las letras y sílabas del idioma en cuestión. Yo los veo sin problemas pero ya me han avisado que otros no. El hangul tiene códigos asignados para su visualización en páginas web pero desconozco cómo cargarlos. Si no ven los ejemplos que les pongo aquí visiten los dos enlaces del final del post.

Las escrituras legítimamente originales parecen ser sólo dos: la cuneiforme sumeria y la mesoamericana, probablemente surgida en el sur del actual México. Podrían serlo también la china (probable) y la egipcia (menos probable) pero todas las demás han sido evoluciones, préstamos o imitaciones de las anteriores. Esto es, a la larga, una circunstancia afortunada porque permitió el desciframiento, por comparación, de algunas que se perdieron hace tiempo (véase el post 1953, una aventura intelectual, sobre el desciframiento de la Lineal B).

Las escrituras evolucionan en el tiempo y componen códigos más o menos flexibles, más o menos ambiguos, más o menos complejos. Algunas son logográficas, otras silábicas, otras alfabéticas, muchas son mezcla de las anteriores. No hay escritura perfecta desde el punto de vista de la eficacia porque son el resultado de una larga y azarosa evolución en la que no existe eso de la "selección natural".

Pero hay un caso excepcional que quiero traerles aquí en este fin de año. Se trata de una escritura creada artificialmente con el objetivo de dotar a una lengua preexistente de ese recurso imprescindible para que la experiencia perdure y se transmita a lo largo de las generaciones.

Este caso se remonta al siglo XV y se llama hangul. Es el alfabeto coreano, formado esencialmente por 10 vocales y 14 consonantes. La propiedad más notable del hangul es que fue creado ex novo bajo el reinado y mecenazgo del rey Sejong y fue declarado oficial en Corea en 1446. El significado que atribuyen a su nombre original deja claras las intenciones del invento: "sonidos correctos para la instrucción del pueblo". Sejong, nacido en 1397, rey a los 21 años, y erudito hasta su muerte a los 51, juzgó necesario superar las dificultades que la complicada escritura china suponía en su país y decidió que el idioma coreano debía escribirse con un sistema nuevo, simple, fácil de aprender y adaptado a la lengua hablada.

La planificación fue excelente: una escritura estrictamente fonética con un número limitado de letras; estas se agrupan en bloques silábicos que, con un orden preciso, forman grupos claramente identificables. Las sílabas se agrupan para formar las palabras que se separan por espacios. Esto puede parecer evidente pero recordemos que en las escrituras actuales hay de todo: algunas prescinden de las vocales, otras cambian su grafía en función del contexto, en otras el mismo signo puede tener diferentes sonidos o el mismo sonido puede corresponder a diferentes signos. Nada de esto se aplica al hangul.

Por ejemplo, una palabra importada (e internacional), banana, se escribe como su transcripción fonética:

바나나

donde la primera sílaba 바 está formada por la consonante ᄇ equivalente a la b y la vocal ᅡ equivalente a la a. Las dos sílabas siguientes son obviamente iguales, con la consonante ᄂ equivalente a la n y se repite la misma vocal. Este, aunque real, es un caso fácil porque al transcribirse la palabra sin modificaciones, la traducción coincide con la transliteración.

En hangul, las sílabas pueden estar formadas por un mínimo de dos letras (consonante y vocal) y un máximo de cuatro. Por ejemplo, la propia palabra hangul, que denomina al alfabeto en coreano está formada por dos sílabas de tres letras:

한글

La primera es 한 (han), formada por las letras ᄒ, ᅡ y ᄂ y la segunda es 글 (gul), formada por las letras ᄀ, ᅳ y ᄅ, y cuya vocal intermedia ᅳ se transcribe también como eu.

Se observa que las sílabas forman siempre un grupo compacto. También comienzan siempre por una consonante, C, (aunque puede ser la muda ᄋ) seguida de una vocal, V. Si esta vocal tiene forma gráfica vertical se escribe a la derecha de la consonante y debajo si tiene forma horizontal. Si la sílaba tiene más de dos letras, las restantes son consonantes. Es decir, la estructura silábica sólo puede tomar las formas CV, CVC y CVCC donde la primera consonante puede ser muda. Veamos unos pocos ejemplos de sílabas (de aquí):

  • está formada por la consonante k y la vocal ah y se pronuncia Kah
  • está formada por la consonante k y la vocal oh y se pronuncia Koh
  • está formada por ㄷ (t), ah y la consonante final ㄹ (l) y se pronuncia Tahl.
  • está formada por t, oh y l: Tohl.

Esta escritura representa todos los sonidos del idioma y se estructura de una forma sencilla y sin ambigüedades. Posiblemente por eso los estudiantes no tienen dificultades en aprender a leer y a escribir en comparación con chinos y japoneses, cuyas escrituras son de auténtica pesadilla en comparación con el hangul. Recordemos, aunque su relación con esto sea difícil de establecer, que Corea del Sur está en los primeros puestos del Informe Pisa en lectura (2º), ciencia (4º) y resolución de problemas (1º).

Y mientras pasa el día, les deseo a todos 행복한 새해 (seguro que no se escribe así pero la intención es lo que cuenta).

Un diario coreano actual

Notas: En Omniglot puede encontrarse más información sobre el hangul. Yo he usado esta página para escribir y obtener los códigos html correspondientes a las sílabas e incluirlos en este post.

27 diciembre 2007

¿Se merecían el premio Science y Nature?

Juan Aréchaga publica un artículo en El País donde arremete contra el reciente Premio Príncipe de Asturias de Comunicación y Humanidades otorgado a las revistas Nature y Science. Su tesis parece ser, en resumen, que ese premio revela el desprecio que existe por las revistas españolas ante las extranjeras. En el blog de Evolutionibus se habla de ese artículo y me he decidido a comentarlo un poco más extensamente.

Creo que don Juan se equivoca. Analizando su artículo se encuentran afirmaciones que me parecen discutibles, irrelevantes y, alguna vez, falaces.

Comienza hablando de Science y Nature como

"[...] auténticos iconos demiúrgicos de una nueva religión intelectual a los que parece que todos los investigadores debemos mostrar adoración y pleitesía".

Frase bonita (sobre todo lo de "demiúrgico") pero, francamente, no sé de qué diablos habla. ¿Religión intelectual? ¿Qué es eso? ¿De dónde saca que tal cosa existe? ¿Quién ha dicho nada de pleitesías a nadie? Francamente, no quiero hacer interpretaciones pero el comienzo me parece muy desafortunado porque aplica la falacia del hombre de paja, algo que no nos merecemos a estas alturas.

Luego se pregunta ¿Qué es lo que se ha pretendido realmente con dicho premio? Y se responde él solo con interpretaciones que parecen más lamentaciones que argumentos y que, de nuevo, sólo existen en su imaginación. Los motivos del premio están en la página web de la Fundación, bastaba con leerlos en vez de montarse películas autoflagelantes.

Tras la crítica al jurado del premio viene el ataque a las revistas:

"las centenarias y renombradas publicaciones han sido, ante todo, la punta de lanza de la ciencia británica y norteamericana" siendo "los foráneos que han publicado en ellas y, particularmente, los españoles, [...] una muestra decorativa e insignificante a lo largo de su historia".

Por un lado, aunque aceptemos la primera frase (hay más ciencia donde hay más ciencia y menos donde hay menos, me dijo ayer mismo Perogrullo) los Premios Príncipe de Asturias son internacionales (con excepciones) y no debería ser demérito ser guiri. O eso creo yo.

En la segunda parte, don Juan cae en el defecto que él mismo critica, ya que parece despreciar las aportaciones españolas. ¿Cuál es el motivo de que las juzgue "decorativas" e "insignificantes"? ¿En qué cifras se basa? ¿Tal vez supone que publican aportaciones españolas ahí por limosna o porque lucimos bien como florero?

Buscando artículos con autores españoles en Science y Nature salen 835 en total. ¿Pocos? Tal vez, pero nunca "decorativos". Francamente, visto el pasado a medio plazo de la ciencia en España, la criba que existe en esas dos revistas y la competencia para llegar a ellas no me parece que sea algo insignificante.

El párrafo siguiente tampoco lo entiendo bien:

[...] ambos semanarios son, en realidad, un formidable negocio editorial -promocionado y mantenido por sus excelentes gabinetes de prensa- que beneficia exclusivamente a la compañía privada Nature Publishing Group y a la American Association for the Advancement of Science (¡nuestros bibliotecarios, investigadores e instituciones científicas saben muy bien lo que cuesta suscribirse, publicar o anunciarse en ellas!).

Lógicamente que son un negocio ¿y qué? Ambas son máquinas perfectamente engrasadas que sacan un número semanal en papel, que mantienen webs de altísimo nivel (incluyendo accesos gratuitos a algunas secciones). ¿Deben hacer eso gratis?

La última parte es desconcertante. Desconozco lo que cuesta anunciarse pero las suscripciones son, precisamente en estas revistas, especialmente baratas. Les pongo unas pocas cifras a continuación para que se hagan una idea (suscripciones individuales normales, no de estudiantes que son más baratas):

  • Science versión digital (recibes la revista por internet y tienes acceso al archivo histórico): 1.32 € por número
  • Nature versión papel (no tiene opción exclusivamente digital): 4 € por número
  • Investigación y Ciencia: 6 € por número
  • New Scientist: 3.3 € por número

¿Y publicar? Publicar no tiene coste económico en ninguna.

Vamos, que sin pretende tener razón porque la experiencia de Juan Aréchaga es mucho mayor que la mía, mi visión de las cosas es diferente. A mí lo que me parece "aldeano" (es su expresión) es hablar de "ciencia británica" o "revistas extranjeras". Y que en España haya o no para publicar "varias Natures o Sciences" no es más que una afirmación no verificable y sin consecuencias en la discusión.

Creo que nuestra forma de abordar el premio debería ser otra: no es normal que se haya dado el premio de comunicación y humanidades a dos revistas científicas. Han sido estas por su indiscutible trayectoria y popularidad pero, si superamos el papanatismo de las "ciencias nacionales", deberíamos aprovechar ese hecho para acercar la ciencia al resto de la sociedad, para tomar iniciativas propias y no para tirar piedras sobre esas revistas, que nos moleste o no, son el mascarón de proa de la ciencia actual.

24 diciembre 2007

Otra vez la máquina maravillosa

Pues eso, otra vez una tontería mayúscula amplificada por un diario nacional analfabeto científico.

La máquina de movimiento perpetuo o sus equivalentes ha sido ya inventada cientos de veces. Todas con igual éxito. Pero eso no es impedimento para que, de nuevo, un sabio incomprendido que rompe los dogmas de la física, vuelva a la carga. Lo peor del asunto es que en El País, periódico de tirada nacional, se hagan eco de la historia y la propongan como siempre, con el electroencefalograma plano. El reportaje titulado "Dos poleas revolucionarias" (sic) dice entre otras cosas:

Una persona normal, con conocimientos básicos de física, se mostrará desconfiado ante un artilugio de aspecto simple pero que tiene la cualidad de hacer que un objeto situado en un extremo consiga levantar a otro más pesado ubicado en el lado contrario. La primera sospecha es que hay algún truco que explica el fenómeno, pero ni siquiera los expertos de la organización internacional de certificación Tüv Süd (cuya sede central está en Munich y que cuenta con 140 años de historia) han sido capaces de encontrar una explicación convincete aplicando los conceptos científicos conocidos.

El genio se llama Oumar Haidara y se autodefine como «experto judicial en electrónica y mecánica». La cerrazón de los científicos españoles le ha obligado a irse a Alemania (siempre la misma historia). Dice el inventor:

"Lo que la máquina permite demostrar resulta imposible de explicar por los principios científicos asentados. Soy consciente de ello porque a mí también me resultaba inaceptable cuando comencé mi investigación."

La máquina en cuestión tiene página web: phiFORCE. En dicha página encontrarán, por fin, descripciones de cómo funciona con textos tan esclarecedores como estos (el texto es literal, tomen aire):

La ciencia es aún joven. No es una religión, sino una interpretación de verdades basado en realidades dimensionales.

La deducción de ingenieros, físicos y científicos, en general, la conservación de la energía, la validez de la base científica en que la demostración empírica de Mecánica Autónoma multiplicador (mecanismo de la división en dos partes iguales en términos de peso y dimensiones, en el conjunto de la cuestión El mismo campo gravitatoire con reacciones en contra), la imposibilidad de contradecir el resultado de la manifestación sin acudir a la teoría de que, en ningún caso puede prevalecer ante una demostración empírica (ruptura de la relación de proporcionalidad previa preparado por la física entre la acción en La entrada del mecanismo, en comparación con la reacción a la liberación)
La sencillez de los elementos que forman la estructura básica de la Comunidad Autónoma del multiplicador Mecánica (piñones y recibir orientación, y la recepción de grupo y dos palancas de empuje).

Todo claro ¿no? Bueno, si no entienden nada pueden buscar más información ya que también tiene un blog llamado Facteurmultiplicateur... ¡Vaya! Una lástima que no tenga ningún post aún salvo "En breve empezaremos a publicar una serie de artículos..."

Actualización (9:20). Acaban de poner el primer post: una referencia al artículo de El País.

Pero no todo es ausencia de información: ¡hay un video!Y claro, aquí se ve todo el proceso. En sus comentarios se oyen cosas como esta:

Por un lado se ve la acción de la gravedad como una fuerza que atrae a los cuerpos y por el otro se ve también que la gravedad se ha anulado.

No se lo pierdan, especialmente el espectacular final. No desmerece los 13 años de trabajo montando ruedas de metacrilato. Yo estoy ahora retorciéndome en el suelo porque me ha dado un ataque de carcajadas.

No sólo El País ha hecho el ridículo. Pueden sumar a la lista de comulgantes con ruedas de molino a La Voz de Galicia y El Ideal Gallego. En este último diario, el genio se atrevió a decir cosas como estas:

[...] esta nueva técnica, en la que lleva trabajando desde 1994, "choca con principios de la física newtoniana y contradice determinados paradigmas" de la ciencia. Además declaró que "las realidades del mundo físico pueden cambiar mediante este invento". El ingeniero senegalés define su investigación como "la aplicación de una teoría de la mecánica cuántica sobre la interpretación de los mundos múltiples". Según Fall, "es posible que existan varios mundos en los que las realidades no son iguales".

He escrito a El País manifestando mi perplejidad, a ver si recibo noticias.

Gracias a WIPHI puedo darles la dirección de la patente con la descripción del invento. No esperen más claridad.

23 diciembre 2007

Los laberintos de la ética y de la comunicación científica (y II)

Adelantándose a las críticas.

Como decía en el post anterior, el editorial de The Lancet del 22 de septiembre se titula La erosión de la confianza y comienza así:

Esta semana, The Lancet publica dos documentos de interés fundamental para la supervivencia de los niños. Lamentablemente, ambos han despertado inquietudes sobre el uso indebido de los datos por organismos de la ONU [...]

Se refiere a que la OMS y a UNICEF han utilizado resultados de artículos científicos para promocionar sus propios intereses como institución.

Ya comenté el caso de la OMS con los enlaces a los documentos originales la semana pasada. Comentaré hoy el de la UNICEF, que parece haber adoptado eso del "ataque preventivo": si te enteras de que alguien va a publicar un resultado que no te gusta, adelántate con otro que lo contradiga, al menos aparentemente, y asegúrate de que tenga una amplia cobertura mediática. ¿Que es exagerado u oculta datos fundamentales? Bueno, nadie es perfecto. Si van a criticar tu forma de hacer las cosas adelántate y vende sólo los buenos resultados. La UNICEF nos da una buena lección sobre cómo hacerlo.

El trabajo científico

El artículo, firmado por Christopher J.L. Murray, T. Laakso, K. Shibuya, K. Hill y A.D. López MD, se titula

Can we achieve Millennium Development Goal 4? New analysis of country trends and forecasts of under-5 mortality to 2015.

Comienza con afirmaciones incómodas (las cursivas son mías):

Aunque se han logrado aumentar la exactitud y puntualidad de las estimaciones de mortalidad infantil de menos de 5 años, estas estimaciones no utilizan todos los datos disponibles, no usan métodos transparentes y reproducibles, no distinguen entre medidas y predicciones y no proporcionan valores de incertidumbre para las estimaciones. Nos hemos propuesto desarrollar nuevos métodos que sean reproducibles y reanalizar los datos existente para proporcionar tendencias temporales detalladas.

Y los resultados, además de claros, también son incómodos ya que muestran un escaso avance:

Se prevé que la mortalidad global de menores de 5 años descienda un 27% desde 1990 al 2015, considerablemente menos que el descenso del 67% marcado por los Objetivos de Desarrollo del Milenio (Millennium Development Goal 4, MDG4).

Luego, en la intepretación:

Globalmente, nuestro trabajo en la reducción de la mortalidad infantil no ha sido mejor que tres décadas atrás.

El trabajo de Murray y colegas mantiene, por tanto, que cuando se aplican métodos claros y técnicas reproducibles, cosas que no han sido lo habitual, la reducción de mortalidad aparece como muy alejada de los objetivos marcados por la UNICEF.

El conflicto con la UNICEF

Y aquí, The Lancet empieza a contar una historia sorprendente.

Antes de la recepción del trabajo de Murray, la revista recibe indicaciones desde la UNICEF de que la aparición de estimaciones de mortalidad infantil paralelas a las suyas puede dañar la cooperación entre agencias y organismos (el trabajo en cuestión era una colaboración entre el Institute for Health Metrics and Evaluation en la Universidad de Washington, y las Universidades de Harvard y Queensland).

Visto como se pone el panorama, desde la revista se hacen consultas a especialistas en el tema para ver si aconsejan o no la publicación del artículo. La respuesta es prácticamente unánime: el trabajo debe ser publicado.

Antes de la publicación del artículo, The Lancet se lo envía a la UNICEF a la espera de sus comentarios. También les comunican la fecha prevista de publicación.

Seis días después de este envío, el 10 de septiembre, la UNICEF convoca a periodistas para informarles de un "gran éxito de salud pública": por primera vez, la mortalidad anual de niños menores de 5 años ha descendido de 10 millones (informe completo, 72 pág.)

Según The Lancet, los periodistas están perplejos: la convocatoria es repentina, se realiza por primera vez separadamente del informe anual y no se dan datos concretos que apoyen las afirmaciones.

La UNICEF niega que hayan querido adelantarse al artículo, claramente crítico, de Murray y colegas pero un asesor de la organización comunica a The Lancet que el trabajo de Murray es "éticamente procupante" y que "no nos sentimos infelices por haber dado nuestras cifras antes". En realidad, las cifras de mortalidad las daba Murray y parece que la UNICEF simplemente las copió sin citar la fuente:

Child deaths worldwide have decreased from 13·5 (13·4–13·6) million in 1980 to an estimated 9·7 (9·5–10·0) million in 2005.

Sólo se trataba, pues, de desviar la atención sobre la parte que interesaba menos: la gran distancia que hay entre las cifras reales y el "objetivo del milenio".

Comentarios finales

Los casos de la OMS y de la UNICEF son distintos pero ambos caen en prácticas indeseables: la manipulación de resultados, la falta de transparencia en los datos y métodos y la hostilidad ante análisis críticos. Todo ello conduce al deterioro de la confianza ante instituciones que deberían tenerla toda.

Independientemente de este tipo de conductas tampoco debemos olvidar que la realidad a la que se refieren es lo más importante y nos da cifras tremendas: la proporción de niños muertos en el periodo neonatal (38% en el año 2000) está incrementándose. Se estiman 4 millones de niños muertos anualmente en ese periodo (4 primeras semanas tras el parto), un número similar de nacidos muertos y 0.5 millones de madres que mueren por causas relacionadas con el embarazo (Lawn, J.E. et al., 2005, 4 million neonatal deaths: when? Where? Why?, The Lancet, May 28-Jun 3, 365: 1845).

16 diciembre 2007

Laberintos de la ética en la comunicación científica

Que la realidad no te estropee una buena noticia.

El editorial de The Lancet del 22 de septiembre se titula La erosión de la confianza y comienza así:

Esta semana, The Lancet publica dos documentos de interés fundamental para la supervivencia de los niños. Lamentablemente, ambos han despertado inquietudes sobre el uso indebido de los datos por organismos de la ONU [...]

Se refiere nada menos que a la OMS y a UNICEF que han utilizado resultados de artículos científicos para promocionar sus propios intereses como institución.

¿Cómo se hace eso? Pues emitiendo comunicados de prensa donde sólo se comentan los aspectos positivos, se ocultan las incertidumbres y se atribuyen parte del mérito o lo usan como confirmación de la bondad de sus estrategias. La mejor forma de vender unos buenos resultados es ocultar los problemas y los factores que puedan crear incertidumbre aunque ello suponga distorsionar la realidad

Ya saben ustedes la opinión que me merecen los científicos que salen a la prensa vendiendo sus trabajos antes de que sean revisados y publicados. Aquí pasa algo similar, tal vez peor: la OMS y la UNICEF nos venden una moto trucada pero lo hacen a sabiendas. Veamos los datos del caso OMS (el de UNICEF lo dejo para otro post si veo que este les interesa).

El trabajo científico

El primer trabajo está firmado por Greg W. Fegan y colegas y trata de la eficacia de mosquiteras tratadas con insecticidas de larga duración en la mortalidad de los niños por malaria. No es cuestión de analizar aquí completamente el trabajo sino de resumir sus resultados que, traducidos y zipeados, son:

Tras el seguimiento de 3500 niños de entre 1 mes y 6 años de edad en varios lugares de Kenia, se estima que el uso de mosquiteras tratadas con insectidas redujo la mortalidad un 44%.

El resultado parece espectacular pero Fegan y compañía son honrados y en su artículo hacen énfasis en los problemas y limitaciones del estudio así y dan estimaciones de incertidumbre que no pueden ser obviadas. En la Discusión del trabajo completo se lee (traducción no literal):

La tasa estimada de mortalidad en niños que han usado una mosquitera tratada es del 56% de los niños que no la han usado [...]. Esto supone unas siete muertes evitadas por cada 1000 mosquiteras repartidas.

A pesar de esto, la mortalidad infantil en conjunto no ha variado en los dos años de observación. Una posible explicación para estos resultados aparentemente contradictorios es que durante el primer año hubo una sequía que pudo afectar a la transmisión de la malaria destacando otros efectos de la situación sanitaria (1). Durante el segundo año llovió el doble y se las mosquiteras fueron repartidas masivamente en la segunda mitad del año eliminando las desigualdades anteriores.

(1) Se refiere a la posibilidad de acceso a las mosquiteras, muy diferente en ese año según zonas.

Otro efecto que ha podido influir en los resultados es la introducción de nuevos medicamentos antimalaria [...] con capacidad de reducir la transmisión de la anfermedad.

Los medicamentos mencionados comenzaron a usarse entre julio y septiembre de 2006, coincidiendo con parte del estudio. Los autores siguen enumerando problemas con honradez, entre ellos la dificultad de verificar algunos datos básicos:

No podemos estar completamente seguros de los informes sobre el uso de mosquiteras por parte de los niños que han muerto.

Ufff... Pero volvamos al resultado principal: la reducción del 44% en la mortalidad se expresa también en el trabajo como la relación entre mortalidades con y sin mosquiteras, que es de 0·56. Es un resultado aparentemente estupendo pero los autores estiman que está afectado por una incertidumbre que se refleja en un intervalo de confianza (95%) de 0·33 a 0·96 (p=0·04). Ese rango hace que los resultados deban tomarse con pinzas e interpretarse con mucha precaución.

Las mosquiteras no sólo evitan cientos de picaduras durante la noche sino que reducen la población de mosquitos al estar tratadas con insecticidas (imagen).

La versión publicitaria

A primeros de agosto de 2007, el grupo de Fegan conversó con la OMS sobre el trabajo bajo condición de confidencialidad ya que no les parecía correcto darlo a conocer antes de "legitimarlo" mediante su revisión por otros especialistas y su publicación en una revista relevante (The Lancet tiene un factor de impacto de 25).

Contaban con el compromiso de la OMS que tardó sólo unos días en incumplirlo haciendo una declaración de prensa sin avisar al equipo de sus intenciones. El comunicado con fecha del 16 de agosto, firmado por J. Palmer y V. Crowell (esta última de la OMS) tiene como subtítulo "Datos recientes en Kenia 'finalizan el debate' sobre la distribución las mosquiteras". Ese debate se refiere a la eficacia de dos estrategias: la de mosquiteras con tratamientos insecticidas únicos, de larga permanencia, y la de mosquiteras que son rociadas a intervalos determinados. La OMS defiende la eficacia de la primera y usa este estudio como prueba definitiva (las cursivas son mías):

Sensacionales resultados en Kenia, conseguidos mediante la nueva estrategia recomendada por la OMS, muestran que la distribución masiva de mosquiteras tratadas con insecticidas de larga permanencia es una forma eficaz de incrementar rápida y espectacularmente la protección, especialmente entre los más pobres.

Los responsables de la OMS no sólo violaron la confianza del grupo actuando a sus espaldas sino que emitieron un comunicado excesivamente simplista obviando las partes que podían oscurecer una noticia tan espectacular y prometedora. Entre estos, el más relevante porque pone en entredicho el principal resultado del estudio, es el intervalo de confianza mencionado antes. Lógicamente, tampoco se comunica ninguna de las posibles fuentes de incertidumbre que los autores plantearon en su artículo.

Comentarios finales

Creo que del ejemplo podemos sacar algunas conclusiones. La primera es que organizaciones cuya acción merece respeto y apoyo pueden comportarse de forma irresponsable. La segunda es que no podemos dedicarnos a confirmar todas las noticias que nos saturan pero sí deberíamos poner en remojo aquellas sobre resultados espectaculares en materias tan sensibles como la salud. La tercera es que la mayoría de los resultados científicos no pueden resumirse en un par de frases o titulares sin obviar elementos esenciales. Es una pena pero es la cosa es así. Esto confirma la necesidad de que científicos y periodistas nos esforcemos en hacer una comunicación a la vez ágil y veraz. Eso sí, tampoco hay que quitar responsabilidad al resto de la sociedad, que debería esforzarse también en leer con atención y espíritu crítico. Difícil todo ello pero no imposible.

15 diciembre 2007

[Breves] SOS: problemas de conexión

A ver si alguien sabe algo del problema que tengo desde hace un mes y medio. Resulta que, sin motivo aparente, no puedo entrar desde la conexión de mi casa a ningún sitio relacionado con Blogger, incluyendo cualquier blog que sea *.blogspot.com
He probado con dos ordenadores, uno conectado mediante wifi y otro con cable directamente al router. También con tres navegadores: Mozilla Firefox, Amaya e Internet Explorer. Con Firefox, el mensaje habitual es un "Terminado" con la página en blanco. Con los otros un directo "No se puede mostrar la página web".
Con cualquier otro blog o página web que no sea *.blogspot.com todo funciona correctamente. Curiosamente, el lector de feeds (Feedreader) los lee correctamente vengan de donde vengan, aunque luego tampoco es capaz de mostrarme la página completa en el caso de que sean sólo un resumen. Todas estas aplicaciones están actualizadas menos el IExplorer, que no utilizo normalmente.
Este problema me está impidiendo actualizar con comodidad, contestar en mi propio blog y comentar en otros por ejemplo, para felicitar al Topo por su publicación.

13 diciembre 2007

Aquellos poderosos ordenadores

Mi tesis de licenciatura, que iba sobre climatología, exigió una serie de análisis estadísticos que me obligaron a viajar a Santiago de Compostela, donde existía un ordenador con el paquete estadístico BMDP. El proceso era ritual: llegabas por la mañana, justo a la hora de abrir la puerta del Centro de Cálculo. La sala no tenía nada más que unos cajones de madera en una de las paredes. Tirabas de uno e introducías un paquete de tarjetas de cartón unidas por una goma elástica. Esas tarjetas contenían los parámetros que había que pasarle al BMDP y los datos sobre los que debía trabajar. Empujabas el cajón y se suponía que una mano misteriosa, en algún momento, recogía el paquete desde el otro lado.

Las tarjetas habían sido perforadas una a una en una suerte de pupitre con teclado, y mi tesina contaba con 642. Cada tarjeta podía almacenar 80 caracteres alfabéticos o numéricos.

Una vez introducido el paquete podías dedicarte a deambular por la granítica ciudad hasta pasado el mediodía. En ese momento volvías a la sala y abrías el cajón. Si no había nada era que aún no habían tenido tiempo para procesar el encargo y podías tomarte el día libre (lo cual solía tomar forma de vino de Ribeiro y queso con anchoas). Si había algo eran las fichas y un montón de papel rayado ("pijama" se decía). Salvo errores de lectura, allá estaban los cálculos impresos con una enorme impresora matricial.

Mi primer ordenador fue un Sharp 3201 al que llamé Cornelia (no me pregunten la razón, siempre quise darle nombre a estos trastos). Cornelia ganaba por goleada a sus congéneres de principios de los 80 porque mientras todos tenían 32 Kb de RAM, aquí podíamos disfrutar de 48 Kb. Además podía trabajar con una cinta de cassette para almacenar secuencialmente un "sinfín" de datos. Con Cornelia se elaboró el Estudio Epidemiológico en la Población Escolar de Avilés que comenté hace poco.

Luego mejoré notablemente mis capacidades comprando un Digital Rainbow 100+ de nombre Mariana que ya contaba con 128 kb de RAM aunque aún carecía de disco duro. Mariana se reseteaba cada vez que alguien pulsaba el timbre de la puerta. Por suerte encontré la solución: un gran transformador 220 a 220 V; y sí, en efecto, transformar no transformaba nada pero evitaba los picos y con ellos el desplome del sistema y del trabajo.

Por el medio muchas variantes de cálculo, desde una calculadora HP-41CV que aún uso (cumple estos días 27 años de funcionamiento intachable), hasta la regla de cálculo Faber-Castell que aprendí a manejar por pura afición porque, obviamente, hacía años que pertenecía al Jurásico.

Hoy, Cornelia II es un ordenador con 4 procesadores, 8 Gb de RAM y 2 Tb de disco duro. Poéticamente, ya no es lo mismo, pero es de una eficacia aplastante.

Cornelia II

11 diciembre 2007

Jocelyn y su director de tesis

En julio de 1967 se captó una secuencia de señales radioeléctricas extrañas. Se estaban buscando cuásares mediante una técnica llamada IPS (interplanetary scintillation) en un radiotelescopio diseñado por Antony Hewish. No era el radiotelescopio que estamos acostumbrados a ver, de esos en forma de antena parabólica. Éste estaba formado por un millar de postes de unos 3 m de altura que sostenían dos mil antenas (dipolos) interconectadas. El montaje, de 1.6 ha de extensión y con un par de centenares de km de cable y alambre, se llamaba Interplanetary Scintillation Array (IPS Array) y estaba en el Observatorio Mullard de Radioastronomía en la Universidad de Cambridge.

El IPS Array

El IPSA exploraba una zona del espacio entre 50º y -10º con una periodicidad de cuatro días. Los resultados se imprimían con plumillas en rollos de papel a razón de unos 34 m al día. Estos registros eran examinados manualmente por Jocelyn Bell Burnell que con 23 años estaba trabajando en su tesis doctoral. A las pocas semanas de analizar los registros, Jocelyn encontró unas señales que no encajaban con el típico centelleo de los cuásares que estudiaban pero tampoco parecían interferencias. Se dió cuenta también de que, aunque desaparecían y reaparecían, venían de la misma zona del espacio.

Jocelyn Bell en el IPS Array (1968)

De acuerdo con su director de tesis, Antony Hewish, decidieron acelerar el papel para tener una mejor discriminación de la extraña señal. Esto no podía hacerse de forma continua porque suponía unos 3 km de papel al día por lo que se buscaron sólo los momentos adecuados. Durante semanas Jocelyn no fue capaz de dar con la dichosa señal hasta que una noche, a finales de noviembre de 1967, reapareció. Se trataba de una serie de pulsos regularmente espaciados.

Al ver que la señal se adelantaba cuatro minutos cada noche, encajando perfectamente con el tiempo sidéreo, se descartó un origen terrestre. Pero los pulsos parecían claramente artificiales, excesivamente regulares: el periodo era exactamente de 3.67 segundos. Unos días después, P.F. Scott y R.A. Collins lograron hacer la misma observación desde otro radiotelescopio, lo que garantizaba que no era un problema instrumental. John Pilkington midió la dispersión estableciendo que la fuente estaba fuera del Sistema Solar pero dentro de nuestra galaxia.

La posibilidad de que proviniera de seres extraterrestres fue tomada como posible opción lo que, con bastante ironía añadida, les llevó a bautizar a la fuente como LGM1 (Little Green Men: pequeños hombres verdes).

Una noche antes de la Navidad, Jocelyn se puso a examinar otras zonas diferentes en los registros y encontró algo que parecía similar en la zona de α-Casiopea. Confirmó que aparecía en otros días y unas horas más tarde analizó con el radiotelescopio la zona sospechosa durante apenas cinco minutos: los pulsos aparecían claramente con periodos de 1.2 segundos.

Un análisis exhaustivo de los registros permitió encontrar dos nuevos conjuntos de señales: ya iban cuatro. Aunque los llamaron LGM2, 3 y 4, la hipótesis de los hombrecillos verdes se deshizo: era altamente improbable que cuatro mundos extraterrestres enviaran a la vez y en la misma frecuencia señales similares desde lugares tan distantes. Tenía que haber otra causa.

El descubrimiento de la primera fuente de señales se publicó en Nature el 24 de febrebro de 1968, apenas 12 días después de haberlo enviado:

Hewish, A.; Bell, S.J.; Pilkington, J.D.H.; Scott, P.F.; Collins, R. A., 1968. Observation of a rapidly pulsating radio source. Nature, 217: 709-713 (24 de febrero de 1968). DOI: 10.1038/217709a0

El resumen era, como corresponde, breve y claro:

Unusual signals from pulsating radio sources have been recorded at the Mullard Radio Astronomy Observatory. The radiation seems to come from local objects within the galaxy, and may be associated with oscillations of white dwarf or neutron stars.

A partir de ese momento y tras un periodo de popularidad "mediática", Jocelyn Bell abandonó las observaciones y se dedicó a sacar adelante su tesis sobre los cuásares, su objetivo inicial. Luego cambió de lugar de residencia y de trabajo y no volvió a trabajar en el asunto que la hizo efímeramente famosa. Siguió su carrera universitaria y este año 2007, con 64 años, recibió el doctorado honoris causa por las universidades de Oxford y Durham.

Púlsares

La fuente de las insólitas señales resultó ser un alucinógeno tipo de estrella que recibió el nombre de púlsar (de pulsating star). Los púlsares tienen una masa similar a la de nuestro Sol, sólo que reducida a una esfera de pocas decenas de km de diámetro. Son un tipo de estrellas de neutrones con un campo magnético algo más intenso que el terrestre, sobre un billón de veces más o menos. La radiación se emite por los polos de dicho campo que, al no estar alineados con el eje de rotación, convierten a la estrella en un faro cósmico. Los periodos de rotación de los púlsares son difíciles de asimilar: el de LGM1, llamado después PSR B1919+21, es de 1.3373 s; PSR B0531+21 (púlsar del Cangrejo) gira 30 veces cada segundo; PSR B1937+21 tiene un periodo de 0.0015578 s, es decir, gira 642 veces por segundo. La superficie de este púlsar se mueve a 1/7 de la velocidad de la luz.

No se pierdan el "sonido" del púlsar Vela y la imagen tomada por el observatorio de Rayos X Chandra :


Todo eso valía un premio Nobel pero se lo dieron a Antony Hewish, no a Jocelyn Bell, en 1974. Fred Hoyle fue uno los físicos que dijo que deberían haberlo compartido. Jocelyn mantuvo años después que no tenía resquemor por aquello, que a fin de cuentas sólo era una estudiante de doctorado. Espero que esa declaración fuera sólo una muestra de corrección política en vez de una muestra de perfecta inserción en el escalafón.

Para explorar:
Sonidos del espacio.
Sonidos de púlsares.

07 diciembre 2007

Los códices desaparecidos

Juan de Zumárraga nació en Durango (Vizcaya) hacia 1475 (otros dicen 1468) y se hizo franciscano. Fue inquisidor en España y ejerció con provecho ya que la enciclopedia franciscana lo etiqueta como "represor de brujas en el País Vasco". Nombrado por Carlos I, fue obispo de México además de ostentar el cargo de "protector de indios", cosa que se entendía en aquel tiempo como más bien orientado hacia la evangelización porque ello supondría mayor beneficio espiritual (of course).

«Por la presente vos cometemos y encargamos y mandamos que tengáis mucho cuidado de mirar y visitar los dichos indios y hacer que sean bien tratados e industriados y enseñados en las cosas de nuestra santa fe católica por las personas que los tienen o tuvieren a cargo y veáis las leyes y ordenanzas e instrucciones y provisiones que se han hecho o hicieren cerca del buen tratamiento y conversión de los dichos indios, las cuales haréis guardar y cumplir como en ellas se contiene, con mucha diligencia y cuidado»

Movido por su ardiente celo apostólico inició también procesos inquisitoriales en México con un total de 183 causas. En una de ellas, en 1539, actuó contra Carlos Ometochtzin, hijo del señor de Texcoco, Nezahualpilli, acusado de apóstata e instigador de la idolatría. Fue quemado vivo el 30 de noviembre en la plaza Mayor de la ciudad de México. Estaba claro cual era el dios verdadero y qué pasaba si abandonabas el buen camino.

No contento con la conversión de los vivos, decidió facilitar el olvido del legado de los muertos. Cito literalmente el texto de su biografía en la poco sospechosa web de la Insigne y Nacional Basílica de Santa María de Guadalupe:

...apenas cinco meses antes de recibir a Juan Diego, se precia en una carta al Capítulo General de su Orden, en Tolosa, de haber arrasado con cuanto había podido: ‘quinientos templos de los dioses y más de 20.000 imágenes de los demonios que adoraban...'

Pero no sólo templos e imágenes, sino también libros y papeles prehispánicos, de naturaleza jurídica, administrativa, comercial y de diversos ámbitos de conocimiento, fueron destruidos sistemáticamente por Zumárraga y sus ayudantes

Fernando Báez ratifica: "en el año 1530, en Tetzcoco, hizo una hoguera con todos los escritos e ídolos de los mayas". Eduardo Galeano, Juan Bautista Pomar y C. W. Ceram repiten la existencia del "auto de fe" donde se borraba irrecuperablemente el pasado para dejar paso libre a un futuro recto.

La parajoda (no es errata) está en que Fray Juan fue también el primer editor de libros en México. Libros, no lo duden, siempre correctos.

Como hoy va de franciscanos, citaremos también a Diego de Landa, otro celoso vigilante de la fe nacido en Cifuentes (Guadalajara) en 1524. En este caso realizó su labor en Yucatán, donde fue Provincial a partir de 1561 (la zona incluia también la actual Guatemala). Al año siguiente se estrenó mediante un auto de fe en Maní que, tras "interrogatorio hostil" (así se dice ahora), culminó el 12 de julio con la quema de cientos de ídolos y todos los libros que pudieron encontrar. En su obra "Relación de las cosas de Yucatán" (hacia 1566) lo dice y justifica:

Hallámosles gran número de libros de estas sus letras, y porque no tenían cosa en que no hubiese superstición y falsedades del demonio, se los quemamos todos, lo cual sintieron a maravilla y les dio mucha pena.

Otra parajoda (sigue sin ser errata) es que Fray Diego fue el único que describió los signos de la escritura maya y su equivalencia con el español. A pesar de los numerosos errores, derivados del empeño en usar una clave alfabética en vez de reconocer la naturaleza silábica de la escritura, fue útil para comenzar la tarea de desciframiento. Asimismo, su Relación es un documento único para el estudio de la situación en aquel siglo crítico donde tanto se perdió.

La destrucción de los escritos mayas fue eficaz ya que sólo cuatro de ellos sobrevivieron en forma de códices (otras muestras han quedado esculpidas o pintadas en murales o cerámica). Los códices están escritos sobre papel plegado en acordeón, hecho de corteza vegetal. Los supervivientes son los llamados de Dresden (39 pág., 3.6 m), de Madrid (112 pág., 6.8 m), de París y Grolier (11 páginas fragmentarias y de autenticidad discutida). Todos pueden descargarse en los enlaces anteriores aunque algunas fotos son antiguas (el códice de París, por ejemplo, lleva tiempo almacenado en una caja sellada por su fragilidad).


Una página del códice de Madrid

La escritura maya surgió de forma independiente del resto de las escrituras del mundo. A pesar de su complejidad, los glifos en que se basa se saben leer actualmente en buena parte, aunque aún hay muchos detalles sin comprender.

El personaje clave de este trabajo fue Yuri Valentinovich Knórosov (1922-1999), un soldado ruso en la Segunda Guerra Mundial. Se dice que, al entrar con el ejército ruso en Berlín se llevó de la Biblioteca Nacional dos libros: la mencionada Relación de las cosas de Yucatán de Diego de Landa y Códices mayas (1930-1933), con reproducciones de los hermanos guatemaltecos José Antonio y Carlos A. Villacorta Calderón. Pero esto merece ser una historia aparte.


Yuri Valentinovich Knórosov

Finalizo con la trascripción de un texto de José de Acosta (1539-1600):

En la provincia de Yucatán, donde es el obispado que llaman de Honduras, había unos libros de hojas a su modo encuadernados o plegados, en que tenían los indios sabios la distribución de sus tiempos, y conocimiento de plantas y animales, y otras cosas naturales, y sus antiguallas; cosa de grande curiosidad y diligencia. Parecióle a un doctrinero que todo aquello debía de ser hechizos y arte mágica, y porfió que se habían de quemar, y quemáronse aquellos libros, lo cual sintieron después no sólo los indios, sino españoles curiosos, que deseaban saber secretos de aquella tierra.

06 diciembre 2007

[Breves] Doña Mercedes y los datos imaginarios

Doña Mercedes Cabrera, ministra de Educación y Ciencia en España, justifica en una entrevista en RNE1 los malos resultados del informe Pisa mediante una estrategia novedosa: usando datos imaginarios. Dice doña Mercedes que si tuviéramos un informe Pisa de hace 20 o 30 años veríamos lo mucho que hemos mejorado.

Debo reconocer que me sorprendió esta nueva forma de eludir la realidad. Usa datos inexistentes para convencernos de la bondad de los actuales (estos sí reales). 

¿No se lo creen? Escuchen la grabación de la entrevista para el programa "En días como hoy" de Juan Ramón Lucas a partir del minuto 16:30. Por cierto que JR Lucas, como siempre, no supo o no quiso preguntar lo obvio: Oiga ¿y usted cómo sabe eso? ¿con qué datos lo sostiene?

Y sí, soy de la generación aludida.

02 diciembre 2007

Los libros arden tan bien...

Sugerencia: lean esto primero (o después)

La obra completa de Aristóteles estaba en la Biblioteca de Alejandría. No desapareció sola ya que en su destrucción se acompañó de cientos de miles de rollos: 700000 según Aulo Gelio (Noctes Atticae, Libro VI: XVII) y Amiano Marcelino (Ammiani Marcellini Historiae, Libro XXII: 16,13); otros dan cifras menores pero, en cualquier caso, enormes.

La Biblioteca de Pérgamo, en la costa occidental de la actual Turquía, fue fundada hace algo más de 2000 años. Fue contemporánea de la de Alejandría y llegó a reunir entre doscientos y trescientos mil volúmenes sobre pergamino, material más resistente que el papiro. El esfuerzo fue vano ya que, tras ser parcialmente destruida en las guerras de Asia Menor, lo que pudo quedar desapareció sin dejar rastro, tal vez en la conquista de la ciudad por Marco Antonio o poco después en Alejandría, donde se dice que fueron a parar los fondos que quedaban como regalo de Marco Antonio a su Cleopatra.

No fueron las únicas, aunque sí las más famosas de la antigüedad. Se mencionan en fuentes clásicas las bibliotecas privadas del propio Aristóteles, Eurípides, Pisístrato o Hierón, las públicas de Atenas o Rodas. De otras sólo queda registro en alguna mención o inscripción: Cos, Milasa, Delfos...

Las bibliotecas islámicas fueron muchas y preservaron durante siglos oscuros el saber anterior y desarrollaron el propio. No por ello se libraron de la destrucción (los libros arden tan bien). Por mencionar dos: Dar al-Hikmah, fundada por el califa abbasí Hārūn al-Rashīd a finales del siglo VIII en la ciudad de Bagdad y que alcanzó su cénit con su hijo al-Mámun. La biblioteca fue destruída junto con la ciudad de Bagdad completa por los mongoles de Hulagu Khan en 1258.

La otra podría ser Dar al-I'lem, fundada en el año 1005 en al-Qáhira (El Cairo) por el sultán de la dinastía fatimí al-Hakim y destruida por Saladino el año 1172.

En España también tenemos casos notables ya que época omeya hubo hasta 70 bibliotecas entre públicas y privadas. La más famosa fue la fundada por Al-Hakem II (961-976), califa de Córdoba que compró o mandó copiar todo lo que consiguió, incluyendo viajes a Bagdad, Damasco o Alejandría. Se estima que atesoró unas cuatrocientas mil obras. La biblioteca de Córdoba duró poco ya que fue quemada en su mayor parte por Al-Mansur (Almanzor en nombre cristiano) en un intento, eliminando libros impíos, de aparecer como adalid de la religión ante sus críticos.

Cosas de antiguos, podríamos suponer si no tuviéramos memoria. Pero los avances cientificos y tecnológicos no han supuesto necesariamente avances culturales equivalentes.

Así, muy cerca tenemos ejemplos magníficos por lo recientes y por lo que podríamos aprender de ellos. Cuenta Fernando Baéz, citando al escritor Ivan Lovrenović, la destrucción de la Biblioteca Nacional de Bosnia y Herzegovina en Sarajevo (pueden ver un artículo de Lovrenović sobre estas destrucciones aquí):

La biblioteca tenía 1500000 de volúmenes, 155000 obras raras, 478 manuscritos, millones de periódicos del mundo entero, pero fue devastada por órdenes del general serbio Ratko Mladic por medio de 25 obuses incendiarios...

Y en otra ocasion hablé del peor acontecimiento, permitido, cuando no alentado, por las potencias que se supone más desarrolladas en cultura y derechos.

La Biblioteca Nacional de Iraq, en Bagdad, fue quemada en abril de 2003. El día 10 comenzó el saqueo. Las tropas de los EE.UU. estaban allí pero no hicieron nada para proteger el edificio. Una semana más tarde un grupo no identificado entró, de nuevo sin oposición alguna, y provocó el incendio. En el mismo también desapareció el Archivo Nacional, con 10 millones de documentos. Sólo por mencionar un libro entre tantos: el Canon en Medicina de Avicena (980-1037 d. C).

No fue esto lo único, claro, la Biblioteca Awqaf, en el Ministerio de Asuntos Religiosos, quedó en ruinas. Algo parecido pasó en la Casa de la Sabiduría (Bayt al-Hikma) y en la Academia de Ciencias de Irak.

En el archivo de Bagdad (foto de NYT)

Donald Rumsfeld lo explicó con claridad "la gente libre es capaz de cometer fechorías, y eso no puede impedirse". En el Ministerio del Petróleo no se extravió nada. Ahí sí pudieron impedirlo ya que estaba fuertemente custodiado.

Algo más de información:
Artículo de Fernando Báez con fotografías.
Artículo de Javier Gimeno.

Quema de libros en Berlín, 10 de mayo de 1933. Fue coordinada en Bonn, Braunschweig, Bremen, Breslau, Dortmund, Dresden, Frankfurt, Göttingen, Greifswald, Hannover, Hannoversch-Münden, Kiel, Königsberg, Marburg, München, Münster, Nürenberg, Rostock y Worms.

Nota: no me olvido de la quema sistemática de códices en América tras la conquista. Otro día hablaremos de ello pero es un excelente ejemplo de destrucción sistemática destinada a borrar el pasado y sustituirlo por "valores" nuevos.

30 noviembre 2007

Una historia sobre salud y contaminación

En 1950, dicen que Avilés era una villa asturiana con 21300 habitantes y con una población claramente envejecida. En esa misma década, la zona fue elegida como cabecera industrial del "milagro económico" de los 50 y 60 en España. Aparecieron la Empresa Nacional Siderúrgica, S.A. (ENSIDESA, 1950), Cris­talería Española, S.A. (1952) y la Empresa Nacional del Aluminio, S.A. (ENDASA, 1958).

En sólo unos años la población se dobló (48500 habitantes en 1960) y experimentó un fuerte rejuvenecimiento. Fue la década de la emigración interior por la Ruta de la Plata romana y Avilés se llenó de andaluces, extremeños y castellanos. Algunos pueblos de Burgos o León perdieron toda su población joven buscando ese Eldorado norteño.

Los cambios introducidos por la instalación de las industrias básicas tuvie­ron, entre otras consecuencias, un claro deterioro de las condiciones ambientales. Mi padre, un emigrante catalán, recordaba años después que cuando llegó a Avilés a mediados de los 50, el café en las terrazas de los bares se tomaba con el plato encima de la taza para que recogiera el orbayu de cenizas.

Baste para terminar esta introducción con decir que en 1981, Avilés había llegado a los 86500 habitantes, una parte de los cuales vivía en barrios al pie de las chimeneas.

En esta situación, el Servicio de Pediatría del Hospital San Agustín (el que atendía a la comarca) hizo públicas algunas cifras que empezaron a llamar la atención. Por ejemplo, que de todos los niños ingresados en el Servicio en la década de los 80, el 46% lo hacía por problemas respiratorios mientras que lo más común en otras zonas de España eran porcentajes cercanos al 25%.

La creación de un Servicio de Lucha contra la Contaminación a finales de los 70 permitió organizar una red de medidores y conocer los niveles de inmisión de algunos contaminantes. Los resultados hicieron que Avilés se declarase en 1981 Zona de Atmósfera Contaminada, ya que los niveles de inmisión de partículas eran entre 2 y 30 veces superiores a los máximos declarados admisibles en la legislación del momento.

En este contexto se planteó la realización de un estudio epidemiológico cuyo objetivo era:

[...] establecer si exis­te una relación significativa entre los niveles de contaminación atmosféri­ca y los síntomas, enfermedades e indicadores relacionados con la fun­ción respiratoria.

La cosa tuvo dos vertientes interesantes. La primera fue personal ya que, recién salido de biológicas, este fue mi primer trabajo freelance. Me llamaron para que me encargara del diseño del muestreo y elaboración estadística de los datos, tareas a las que hubo que añadir la revisión bibliográfica, cartografía de la contaminación y redacción de los informes (800 páginas)...

Interesante también porque no había precedentes en España sobre este tipo de estudio que surgía, además, de las administraciones responsables del posible daño ya que las mayores industrias eran de titularidad estatal.

Con un estusiasmo un poco inconsciente nos pusimos a trabajar. Se definieron tres zonas según el nivel de contaminación que sufrían: alto, medio y bajo. Se eligieron 10 colegios de esas zonas y durante dos cursos escolares se realizaron 28230 espirometrías forzadas a un total de 2962 niños, mayoritariamente entre los 8 y 11 años. De las espirometrías se extrajeron los valores de 7 variables de capacidad pulmonar y flujo eliminando los casos de afecciones agudas.

Quedan anécdotas del momento, como que la base de datos y la estadística se hizo en el ordenador de mi casa, un Sharp con 48 kb de RAM. O que todos los análisis se hicieron con aplicaciones que tuve que programar en un dialecto de BASIC, desde los estadísticos más simples hasta el análisis de la covarianza.

Los resultados que encontramos son largos de exponer, demasiado para el espacio de un post pero, aunque sólo sea por recordar a esos niños que hoy habrán pasado ya de la treintena, les resumo que encontramos, entre otras cosas:

  • que la función respiratoria en niños y niñas era progresivamente menor según aumentaba el nivel de contaminación de la zona donde vivían.
  • que todos los grupos, incluso los de la zona de menor contaminación, presentaban menores valores de variables respiratorias que los considerados estándar. En los niños la reducción era de un -8% aproximadamente; en las niñas, de un -13%.
  • que en la zona de alta contaminación, la prevalencia de problemas respiratorios era más elevada para bronquitis aguda, tos habitual, catarros con flemas, silbidos en el pecho, haber padecido enfermedad respiratoria de más de 7 días de duración...

En fin, lo esencial es que a finales de los 80 encontramos una clara relación entre las condiciones de vida al pie de la fábrica y la salud de niños que aún no habían llegado a la adolescencia. Entonces lo tomamos como un ejercicio profesional, el primero de nuestra carrera. Ahora lo veo de otra forma porque recuerdo las mañanas en los colegios, las ojeadas curiosas al espirómetro, la decepción de un niño porque le decíamos que estaba enfermo y no podía hacer las pruebas, la atención preocupada con la que algunos pediatras locales seguían el trabajo...

En la zona de alta contaminación ya no vive nadie. Las familias de los 149 escolares y todos sus vecinos dejaron sus casas, antes rurales, y fueron realojadas en otros barrios. Con la crisis industrial, el cierre de instalaciones o la apertura de otras nuevas ya dotadas de electrofiltros, se redujo la contaminación general de forma que hoy Avilés se parece muy poco al de hace veinte años.

Del estudio epidemiológico nunca más se supo. Hubo un avance el primer año y a su finalización fue olvidado completamente. Se presentó como una iniciativa pionera dentro de las acciones de lucha contra la contaminación pero nunca llegó a publicarse ni a publicitarse. Tampoco tuvo efecto alguno ya que el desalojo de la zona más contaminada estaba decidido previamente y el resto se quedó como estaba.

Y este post viene a cuento porque encontré hace unos días el estudio original en unos archivadores y releyendo los nombres de los niños, decidí recordar y contárselo a ustedes.

27 noviembre 2007

Canteranos

Este próximo año 2008, en nuestro pequeño grupo de investigación se defenderán cinco tesis doctorales. La primera ya tiene fecha: el 11 de enero. Trabajo nos ha costado a todos pero el final ya está a la vista.

El problema es que eso del "final" es literal ya que previsiblemente ninguno se quedará en el grupo, todos se irán, nadie se dedicará a la investigación. Ha llegado la hora de las decisiones y no han tenido alternativa. Pueden optar, eso sí, a un beca postdoctoral en Australia y luego otra en Francia o en Canadá, pero eso sólo alejará unos pocos años la vuelta al mismo problema.

En mi equipo de fútbol había cantera. Eso significaba que desde los siete u ocho años se jugaba al fútbol en las categorías menores y los buenos eran promocionados poco a poco hasta llegar, si tenían méritos, al equipo mayor. No sé allá al otro lado del charco la forma de hacer. Aquí ya no hay cantera porque los equipos fichan a jugadores estrella que van pasando de club en club, cambiando de colores según sube el sueldo.

El problema es que misma estrategia se sigue en la investigación. O peor. Nuestra cantera son los recién egresados, entre los cuales no sería difícil seleccionar uno o dos al año que conjugaran inteligencia (hay bastantes) y vocación (algunos menos). Podría ofrecerles una línea de trabajo razonablemente productiva y una beca/contrato (2+2) predoctoral para hacer la tesis. Puedo incluso garantizarles que, si trabajan con la dedicación esperable, su tesis no fracasará porque estará bien planificada y tendrán el material necesario para sacarla adelante. Pero no hay más que ofrecer.

Por ese motivo, sueño con unas pocas reformas en la universidad. Pero temo que no se van a realizar mañana. Hoy sólo les esbozo una: que las universidades tengan plazas tanto de docentes como de investigadores. Actualmente sólo se crean plazas si hay alumnos. No hay nuevos alumnos ergo no hay nuevas plazas. Así de fácil. Por lo tanto, a esos cinco nuevos doctores (tres mujeres y dos hombres) no se les va a abrir ninguna puerta.

Por ese motivo, como no quiero ver ni generar más frustración, he decidido no dirigir más tesis doctorales. Así terminamos el Año de la Ciencia.

El lado bueno es que todos nuestros ex-alumnos están colocados, a veces antes de terminar el proyecto fin de carrera. Con pleno empleo ¿para qué iban a dedicarse a la investigación?

26 noviembre 2007

Ecos internacionales

La aparición del tigre chino en Mérida no podía pasar desapercibida para la siensia. Aquí lo tienen. Si lo hubiera contado nadie lo hubiera creído salvo IJ pero claro, con fotos...

Nota 1: Nada ocurre por casualidad. ¿Una abducción? (mía en este caso) ¿Efectos del cambio climático? ¿Una conspiración mesónica? Todo estaba vaticinado por las profecías secretas del Codicilo de Cirilo.

Nota 2: Gracias a Mangas Verdes por avisarme de la portada, sin él no me habría enterado ;-)

24 noviembre 2007

[Breves] Reflexiones, un blog

En esta blogocosa del copy/paste/coloreo es de agradecer un blog con contenidos propios. Aprovecho para avisaros de que un amigo recuperado después de muchos años se ha decidido y ha abierto el suyo, Reflexiones. Alfredo es psicólogo y sus dos primeros posts ya merecen comentarios. Alcohol, drogas y adolescentes y una mirada atrás hacia nuestras reacciones ante el Gulag. Que dure.

23 noviembre 2007

Morirse

Estamos programados para morirnos. No nos lo podemos tomar a mal porque la naturaleza no nos tiene especial manía, en todo caso una indiferencia algo molesta. Pero sí podemos preguntarnos es la esencia de ese final que casi siempre llega en un momento inoportuno.

Lo primero es tal vez reseñar que el concepto de muerte aplicado a los organismos unicelulares presenta situaciones escurridizas: las células se dividen en dos y siguen cada una como una entidad aislada y completamente funcional. En este sentido no puede hablarse de que la célula original haya muerto pero tampoco de que perviva.

En nuestro caso el concepto es más claro. Somos organismos formados por 30 a 60 billones de células funcionando armónicamente. esa armonía ha conseguido crear la complejidad suficiente como para que tengamos conciencia de nostros mismos como entidad. Nuestra muerte es más la pérdida definitiva de esa conciencia que la muerte de nuestras células. Vamos a ver algunos hechos y matices interesantes partiendo de lo simple.

En principio hay dos formas de que una célula muera: la necrosis y la apoptosis.

La necrosis es una muerte celular traumática. Las quemaduras, golpes, cortes, infecciones... provocan necrosis. Las células afectadas se rompen y "derraman" su contenido lo que produce una inflamación al atraer las células del sistema inmunitario. Si la necrosis afecta a un número suficiente de células, el resultado es la muerte del organismo, nuestra muerte. Pero aunque eludamos ese final nos queda el otro.

La apoptosis es una muerte programada. Por un lado nuestras células no son inmortales, sólo pueden dividirse un número limitado de veces y, por tanto, también viven sólo un tiempo limitado. En los humanos, el número de veces que esa división puede realizarse es variable pero siempre pequeño, de 50 o menos. Esa limitación fue descubierta por Leonard Hayflick hacia 1960 y se conoce hoy como el límite de Hayflick.

Hayflick L. (1965) The limited in vitro lifetime of human diploid cell strains. Experimental Cell Research, 37: 614-636.

Podríamos desear que la división celular fuera eterna con la esperanza de que esa circunstancia nos otorgara una vida indefinida, sólo sujeta a accidentes. Y en efecto, hay células en las que eso ocurre pero no nos gustaría adoptarlas porque, lamentablemente, todas son tumorales. Las células sanas se mueren cuando les toca y gracias a eso vivimos.

En condiciones normales y en organismos pluricelulares, las células que mueren por apoptosis son sustituidas por otras procedentes de la división celular. Hay un equilibrio en la renovación y el sistema funciona. La apoptosis no ocasiona problemas como la necrosis porque las células se fraccionan y son engullidas por las células vecinas sin reacciones negativas ni inflamación.

Sin embargo, no es necesario esperar al límite de Hayflick para que una célula muera por apoptosis ya que esta se desencadena por múltiples causas, entre ellas el daño al material genético. Por ejemplo, el paso del tiempo, el envejecimiento, multiplica los errores genéticos en la reproducción celular y, por lo tanto, la frecuencia de apoptosis se incrementa. Esto es demoledor en el caso de que afecte a las células nerviosas ya que su regeneración en muy limitada. Por otra parte, si la apoptosis no se desencadena con la oportunidad o frecuencia necesarias aparecerán tumores.

 

Vemos que la muerte progresiva y ordenada de nuestras células no es nuestra muerte sino más bien un seguro de supervivencia. Nuestra muerte se identifica con el desmontaje del sistema, cuya complejidad nos da la conciencia de ser algo diferenciado del entorno. Perdida esa complejidad certificarán nuestro paso al estado de fiambre aunque muchos millones de células seguirán vivas durante unas horas, ignorantes de que ya no contribuyen a la causa.

Lo interesante de esto es que no hay nada estable en nosotros: casi todas nuestras células se renuevan varias veces a lo largo de la vida. Al morir de viejo nadie se parece demasiado a sí mismo de joven en sus "componentes", todo ha cambiado menos nuestra conciencia de ser los mismos. ¿Qué somos exactamente?

 

Por cierto, que todo lo que conocemos ahora nos señala que nuestro límite biológico a la vida que está en unos 120-125 años. Las historias sonre longevos extremos no han sido nunca comprobadas con seguridad. Sólo se han constatado una veintena de personas en el mundo que hayan superado los 110 años. En tiempos pasados es imposible saberlo por la ausencia de documentos pero no es probable que las proporciones fueran mejores.

22 noviembre 2007

NAIC/Arecibo

La cosa comenzó con un post en Magonia alertando sobre el futuro cierre del Observatorio de Arecibo. Luego una pequeña nota en Nature titulada 3 buenas razones (para no cerrar Arecibo). Como en ningún lado encontré información fehaciente decidí revisar las fuentes para ver el alcance de la historia. Se la resumo a continuación.

El Observatorio de Arecibo se construyó en 1963 en Puerto Rico y consta de varios intrumentos aunque lo más conspicuo es, sin duda, la enorme antena de 305 m de diámetro excavada en el terreno y forrada de láminas de aluminio. Pueden encontrar más detalles, cómo no, en la Wikipedia, tanto en castellano como en inglés. Su nombre oficial es National Astronomy and Ionosphere Center, NAIC.

El presupuesto anual del NAIC/Arecibo es de 12 M$. Todo procede de la National Science Foundation, una agencia federal estadounidense creada en 1950 para el progreso de la ciencia. Su presupuesto anual es de casi 6 mil millones de dólares (5.92 para ser exactos). Del presupuesto del NAIC/Arecibo, 10 M$ son de la NSF/AST (Division of Astronomical Sciences) y 2 M$ de la NSF/ATM (Division of Atmospheric Sciences).

Hace aproximadamente un año, el 22 de octubre de 2006 se hizo pública la fuente primaria del problema, el informe From the Ground Up: Balancing the NSF Astronomy Program. En su "resumen ejecutivo" (pág. 6) hace la siguiente recomendación (resumido):

El NAIC [...] debe buscar colaboradores que contribuyan personal o económicamente al funcionamiento de de Arecibo. De otro modo, sus instalaciones deberán ser cerradas.

En una presentación (PPT) del 23 de octubre pasado afinan un poco más y se reafirman en la propuesta en cuanto a la financión de la NSF/AST:

  • reducción a 8 M$ por año en los próximos 3 años.
  • reducción a 4 M$ para 2011.
  • recomendación de cierre si no se consiguen fondos de otras fuentes.

Aunque financiado como hemos dicho por la NSF, el NAIC está gestionado por la Universidad de Cornell donde esta recomendación no fue especialmente bien recibida. Por poner un ejemplo, el 13 de noviembre de 2006 Joseph A. Burns, administrador de Ciencias Físicas e Ingeniería de dicha universidad, se dirige al responsable del informe G. Wayne van Citters, Director de la NSF/AST indicándole que varias apreciaciones del informe, influyentes sobre la recomendación mencionada antes, eran erróneas. La respuesta es inflexible (ambas cartas pueden localizarse en la web de la NSF, aquí y aquí). Este es sólo un ejemplo de una oleada de protestas bastante general.

¿Y qué pasa si se cierra Arecibo? El observatorio trabaja en tres línes diferentes: radioastronomía, radar astronómico y estudios de la ionosfera. En todas las áreas tiene algo de curriculum. Una muestra mínima de cinco elementos:

  • a primeros de los 90 se descubren los tres primeros planetas fuera del Sistema Solar alrededor del Pulsar B1257+12.
  • en 1965 se establece el periodo de rotación de Mercurio.
  • a finales de 1980 se finaliza en primer mapa detallado de galaxias en el universo.
  • en 1974 se descubre el primer pulsar en un sistema binario lo que supuso una prueba de la Teoría de la relatividad y un Premio Nobel (1993) para los astronomos Russell Hulse y Joseph Taylor.
  • se descubren dos clases de púlsares: los de rotación rápida (cientos de veces por segundo) y los de rotación lenta (una vez por segundo)
  • El Observatorio mantiene, además de las misiones "convencionales" que dan lugar a resultados como los anteriores, otras dos que pueden considerarse algo especiales. Una es la escucha en busca de señales de vida extraterrestre. Lo que el radiotelescopio "escucha" se envía al proyecto SETI@home y se procesa en miles de ordenadores individuales de forma distribuida (sin resultados positivos hasta ahora). La otra se realiza con el radar planetario de 1 MW que, operando apenas un 5% del tiempo total, ha servido estos años para cartografiar la órbita de objetos potencialmente peligrosos para la Tierra. Se trata de los near-Earth asteroids (NEA), que pueden suponer una amenaza por su proximidad y posibilidad de colisión. En esta misión es 20 veces más sensible que el siguiente instrumento en la lista.

     

    Cerrar instalaciones científicas que funcionan sin problemas y que generan una enorme cantidad de información es una conducta absurda. Los anunciados recortes presupuestarios del complejo de Arecibo no son resultado de problemas económicos sino de una estrategia. Hay dinero pero no se quiere dedicar a eso. Por suerte ya hay movimientos para conseguir esa financiación complementaria.

    Respecto a los recortes en los próximos años, en Nature se da un dato apropiado para cerrar el post: los 4 M$ por año que necesita el Observatorio para funcionar a partir de 2011 son, curiosamente, la misma cantidad que la NASA tiene presupuestada este año para fiestas (algo de información rosa aquí). Vaaale, también tienen que divertirse y entregar premios, todo es cuestión de prioridades.

    ¡Ah! Se me olvidaba el otro dato impertinente: recuerden que 1 IWD (Iraq War Day, o Día de Guerra en Irak) equivale a unos 190 millones de dólares.

    17 noviembre 2007

    El origen humano del calentamiento global desacreditado

    Un trabajo publicado en el número del 3 de noviembre del Journal of Geoclimatic Studies muestra que el calentamiento global no está provocado por la actividad humana sino por el incremento del número de bacterias emisoras de CO2 en los fondos marinos. La referencia completa es:

    Daniel A. Klein; Mandeep J. Gupta; Philip Cooper; Arne F.R. Jansson, (2007), Carbon dioxide production by benthic bacteria: the death of manmade global warming theory?, Journal of Geoclimatic Studies, 13(3): 223-231.
    DOI:152.9967/r755100729-450172-00-4

    Donde los dos primeros autores son del Departmento de Climatología (University of Arizona) y los dos segundos del Departmento de Física Atmosférica (Göteborgs Universitet).

    El incremento de dióxido de carbono es natural y de origen bacteriano. Remitirá en los próximas décadas por lo que la alarma actual es infundada. Sigamos contami- nando que no pasa nada.

    El trabajo de Klein y colegas desacredita la teoría actualmente propuesta de que la causa primaria del calentamiento global son las emisiones de CO2 originadas por la actividad humana. Traduzco el resumen:

    Se ha establecido que el incremento de la temperatura global se debe mayoritariamente al incremento de concentraciones de dióxido de carbono en la atmósfera. La posición de "consenso" atribuye este incremento a la quema de combustibles fósiles en los procesos industriales. Este es el mecanismo que sirve de apoyo a la teoría de calentamiento global de origen antrópico.

    Nuestros datos demuestran que los que suscriben la teoría de consenso han obviado la fuente primaria emisora de dióxido de carbono. Mientras que una pequeña parte del incremento de las emisiones puede atribuirse a la actividad industrial, esta es ampliamente sobrepasada (más de 300 veces) por los volúmenes crecientes de CO2 producidos por eubacterias saprofíticas que viven en los sedimentos de las plataformas continentales que flanquean los océanos Atlántico y Pacífico. Es más, las emisiones bacterianas, al contrario que las industriales, se ajustan con exactitud a las fluctuaciones de la temperatura global de los pasados 140 años.

    Este trabajo propone también un mecanismo para explicar el incremento de las emisiones bacterianas de CO2. Una serie de "explosiones" naturales de algas que comienzan en el sigo XIX causaron mortalidades masivas entre los principales predadores de bacterias, los moluscos braquiópodos del género Tetrarhynchia. Estos periodos de explosión de algas, como muestra el registro paleontológico, se han producido por más de tres millones de años y siempre se les ha acompañado un importante incremento de emisiones de CO2 como resultado de la multiplicación bacteriana cuando la presión de predación disminuye. Este fenómeno dura unos 150-200 años. Si el episodio actual es consistente con este registro podemos esperar un máximo de emisiones entre este momento y la mitad del siglo, volviendo luego a los niveles de base. Nuestros datos sugieren que la actual inquietud sobre el calentamiento global de origen antrópico no tiene fundamento.

    El trabajo no ha estado exento de dificultades y hacen algunas denuncias demoledoras:

    Cuando hemos retado a eminentes científicos del clima que suscriben la teoría de "consenso", nuestro interés a tropezado con evasivas y en algunos casos con reacciones agresivas. Esta discusión ha sido prohibida por los editores de revistas científicas. Esta revista es una valerosa excepción pero ha estado bajo una gran presión para que no planteara el asunto. Se deben, concluimos, simplemente a que hay demasiado en juego.

    Y no sólo eso sino que se arriesgan por una causa justa:

    Nuestros resultados nos colocan en una difícil posición. Consideramos nuestra obligación publicarlo tanto por objetividad científica como para impedir un terrible error (por sus consecuencias extremadamente costosas) por parte de los gobiernos del mundo.

    Sabemos que esto puede poner nuestras carreras en dificultades.

    Hemos sido advertidos, individual y colectivamente [...] de que podemos ser privados de toda financiación en el futuro e incluso podemos arriesgar la financiación de los departamentos donde trabajamos.

    Creemos que esta intimidación académica contradice el espíritu de la libre investigación [...] y deploramos las respuestas agresivas que hemos tenido antes de la publicación y tememos la reacción que este trabajo pueda provocar.

    Las dificultades vienen avaladas por el editorial del JGS, (ahora inaccesible pero copiado aquí) y que decía entre otras cosas:

    Antes de venir a esta revista, Daniel Klein y colegas enviaron su trabajo a otras 43 revistas. Todas lo rechazaron y ninguna dió razón científica de su decisión.

    Una conspiración en toda regla.
    Bueno, hasta aquí la reseña de este apasionante y heroico trabajo. Ahora los metadatos:

    Hay más detalles interesantes y divertidos para la gente curiosa. Por ejemplo, los supuestos predadores son, según ellos, "moluscos braquiópodos", cuando se trata de grupos (Phylum) diferentes: Mollusca y Brachiopoda.

    Otro ejemplo, en este caso una referencia:

    Tibbold, WR and JD Rawsthorne (1998). Miocene, Pliocene and Plasticine fossil records for eukaryotic mass on the West African continental shelf. Journal of Submarine Research 18:5. 196-203.

    Mioceno, Plioceno y Plasticino, sí, han leido bien.

    Y así todo, una mezcla de jerga científica, ecuaciones delirantes (Q³uct, jyΦ = ∑cy³11, por ejemplo) y referencias falsas mezcladas con otras verdaderas.

    Puestos a comentar algo, diría que este intento de fraude revela lo peor y lo mejor de internet. Por un lado, cualquiera puede montarse una fachada más o menos convincente y vender falsedades dándoles la apariencia de un trabajo honrado. Por otro, el fraude se destapó en muy pocas horas gracias también a dos circunstancias: la existencia de la red que permite verificar los datos de forma independiente y la existencia de personas que no se tragan todo lo que le dicen.

    En España el trabajo no ha tenido eco porque nos enteramos de todo tarde, como siempre, eternamente pendientes de crisis políticas catastróficas que nos acercan asintóticamente al día del juicio final. Menos mal que en este caso no había nada de que enterarse.

    Que tengan un buen fin de semana.

    Nota: en Nature hacen una entrevista al supuesto autor del artículo fraudulento. No les recomiendo que la lean ya que aquí usa de nuevo un nombre falso y desde el anonimato su credibilidad es igual a la del propio artículo: nula.

    15 noviembre 2007

    Lena

    Abrí Digital Image Processing algorithms y allí estaba, en blanco y negro, repetida una y otra vez. Apenas diez minutos después volví a encontrarla en otro libro. Luego en un artículo en una revista. Luego en una presentación de diapositivas. El caso es que a lo largo de los años en la práctica totalidad de los libros sobre imagen digital aparecen cientos de variantes de la misma imagen, una y otra vez. Es como si se hubiera llegado a un acuerdo tácito: todo artículo sobre compresión fractal de imágenes, sobre resolución radiométrica, sobre... lo que sea, debe ir ilustrado siempre con imágenes de esta chica:

    La imagen original se digitalizó hace 34 años en el USC Signal and Image Processing Institute de la University of Southern California. Sobre quién lo hizo no hay mucho acuerdo aunque la mayoría atribuyen la tarea a Alexander A. Sawchuk, profesor ayudante en verano de 1973 y que estaba preparando una comunicación para un congreso. Necesitaba una imagen para trabajar y decidió pasar por el escáner (lo que en aquel momento era una tarea nada irrelevante) alguna fotografía que presentara texturas y un rango dinámico amplio. Eran trabajos que sentaban las bases para los algoritmos de compresión de imágenes, aún más importantes entonces que ahora debido al mínimo ancho de banda de Arpanet, la red precursora de Internet.

    Los escáneres planos de hoy están muy lejos del Miurhead que utilizaron en aquel momento. Era un escáner de tambor con una resolución fija de 100 ppp y una superficie útil de 5.12 pulgadas. Aprovechándola completamente podía generarse una imagen de 512x512 píxeles en color. La imagen se procesaría en un Hewlett Packard 2100.

    Escáner Miurhead de tambor

    Las tres imágenes originales (una para cada componente de color RGB) no salieron del todo bien y hubo que restaurar una línea perdida (simplemente duplicando la vecina). En aquel momento los escáneres eran kuy escasos y el SIPI recibió numerosas peticiones de copias de la cinta por parte de otros investigadores lo que contribuyó a hacer de la imagen un estándar para todos los desarrollos de los años siguientes.

    Algo más tarde alguien se preguntó quién era ella. Las pertinentes indagaciones dieron fruto: resultó ser una chica sueca llamada Lena Sjööblom que había emigrado a los EE.UU. en 1969 y que en 1972, con 21 años, trabajaba de modelo en Chicago.

    También se localizó la foto original: los ingenieros del SITI habían digitalizado, créanlo, una parte del poster central del Playboy de noviembre de 1972.

    Si los motivos de esta elección fueron sólo técnicos y si esta revista estaba allí por mera casualidad son detalles aún sin explicar adecuadamente.

    La imagen original sigue estando disponible en la base de datos del SITI; si quieren descargarla es esta (formato tif 768 kb):

    Imagen escaneada en 1973

    Lena Sjööblom se ha ganado un lugar en este sector de la ingeniería que abarca desde la trasmisión de señales hasta aplicaciones de internet. Actualmente vive en Suecia y no conocía su exótica popularidad hasta que la localizaron e invitaron a asistir a la 50th Anniversary Conference de la IS & T (The Society for Imaging Science and Technology) en Boston, mayo de 1997. Lena ha sido y es musa involuntaria de todo un sector de la ciencia y de la técnica.

    ¡Ah! Se me olvidaba (qué cabeza...), lógicamente con 512 píxeles la imagen de Lena fue sólo una parte del poster.

    Grab this Widget ~ Blogger Accessories
     
    º