23 noviembre 2007

Morirse

Estamos programados para morirnos. No nos lo podemos tomar a mal porque la naturaleza no nos tiene especial manía, en todo caso una indiferencia algo molesta. Pero sí podemos preguntarnos es la esencia de ese final que casi siempre llega en un momento inoportuno.

Lo primero es tal vez reseñar que el concepto de muerte aplicado a los organismos unicelulares presenta situaciones escurridizas: las células se dividen en dos y siguen cada una como una entidad aislada y completamente funcional. En este sentido no puede hablarse de que la célula original haya muerto pero tampoco de que perviva.

En nuestro caso el concepto es más claro. Somos organismos formados por 30 a 60 billones de células funcionando armónicamente. esa armonía ha conseguido crear la complejidad suficiente como para que tengamos conciencia de nostros mismos como entidad. Nuestra muerte es más la pérdida definitiva de esa conciencia que la muerte de nuestras células. Vamos a ver algunos hechos y matices interesantes partiendo de lo simple.

En principio hay dos formas de que una célula muera: la necrosis y la apoptosis.

La necrosis es una muerte celular traumática. Las quemaduras, golpes, cortes, infecciones... provocan necrosis. Las células afectadas se rompen y "derraman" su contenido lo que produce una inflamación al atraer las células del sistema inmunitario. Si la necrosis afecta a un número suficiente de células, el resultado es la muerte del organismo, nuestra muerte. Pero aunque eludamos ese final nos queda el otro.

La apoptosis es una muerte programada. Por un lado nuestras células no son inmortales, sólo pueden dividirse un número limitado de veces y, por tanto, también viven sólo un tiempo limitado. En los humanos, el número de veces que esa división puede realizarse es variable pero siempre pequeño, de 50 o menos. Esa limitación fue descubierta por Leonard Hayflick hacia 1960 y se conoce hoy como el límite de Hayflick.

Hayflick L. (1965) The limited in vitro lifetime of human diploid cell strains. Experimental Cell Research, 37: 614-636.

Podríamos desear que la división celular fuera eterna con la esperanza de que esa circunstancia nos otorgara una vida indefinida, sólo sujeta a accidentes. Y en efecto, hay células en las que eso ocurre pero no nos gustaría adoptarlas porque, lamentablemente, todas son tumorales. Las células sanas se mueren cuando les toca y gracias a eso vivimos.

En condiciones normales y en organismos pluricelulares, las células que mueren por apoptosis son sustituidas por otras procedentes de la división celular. Hay un equilibrio en la renovación y el sistema funciona. La apoptosis no ocasiona problemas como la necrosis porque las células se fraccionan y son engullidas por las células vecinas sin reacciones negativas ni inflamación.

Sin embargo, no es necesario esperar al límite de Hayflick para que una célula muera por apoptosis ya que esta se desencadena por múltiples causas, entre ellas el daño al material genético. Por ejemplo, el paso del tiempo, el envejecimiento, multiplica los errores genéticos en la reproducción celular y, por lo tanto, la frecuencia de apoptosis se incrementa. Esto es demoledor en el caso de que afecte a las células nerviosas ya que su regeneración en muy limitada. Por otra parte, si la apoptosis no se desencadena con la oportunidad o frecuencia necesarias aparecerán tumores.

 

Vemos que la muerte progresiva y ordenada de nuestras células no es nuestra muerte sino más bien un seguro de supervivencia. Nuestra muerte se identifica con el desmontaje del sistema, cuya complejidad nos da la conciencia de ser algo diferenciado del entorno. Perdida esa complejidad certificarán nuestro paso al estado de fiambre aunque muchos millones de células seguirán vivas durante unas horas, ignorantes de que ya no contribuyen a la causa.

Lo interesante de esto es que no hay nada estable en nosotros: casi todas nuestras células se renuevan varias veces a lo largo de la vida. Al morir de viejo nadie se parece demasiado a sí mismo de joven en sus "componentes", todo ha cambiado menos nuestra conciencia de ser los mismos. ¿Qué somos exactamente?

 

Por cierto, que todo lo que conocemos ahora nos señala que nuestro límite biológico a la vida que está en unos 120-125 años. Las historias sonre longevos extremos no han sido nunca comprobadas con seguridad. Sólo se han constatado una veintena de personas en el mundo que hayan superado los 110 años. En tiempos pasados es imposible saberlo por la ausencia de documentos pero no es probable que las proporciones fueran mejores.

22 noviembre 2007

NAIC/Arecibo

La cosa comenzó con un post en Magonia alertando sobre el futuro cierre del Observatorio de Arecibo. Luego una pequeña nota en Nature titulada 3 buenas razones (para no cerrar Arecibo). Como en ningún lado encontré información fehaciente decidí revisar las fuentes para ver el alcance de la historia. Se la resumo a continuación.

El Observatorio de Arecibo se construyó en 1963 en Puerto Rico y consta de varios intrumentos aunque lo más conspicuo es, sin duda, la enorme antena de 305 m de diámetro excavada en el terreno y forrada de láminas de aluminio. Pueden encontrar más detalles, cómo no, en la Wikipedia, tanto en castellano como en inglés. Su nombre oficial es National Astronomy and Ionosphere Center, NAIC.

El presupuesto anual del NAIC/Arecibo es de 12 M$. Todo procede de la National Science Foundation, una agencia federal estadounidense creada en 1950 para el progreso de la ciencia. Su presupuesto anual es de casi 6 mil millones de dólares (5.92 para ser exactos). Del presupuesto del NAIC/Arecibo, 10 M$ son de la NSF/AST (Division of Astronomical Sciences) y 2 M$ de la NSF/ATM (Division of Atmospheric Sciences).

Hace aproximadamente un año, el 22 de octubre de 2006 se hizo pública la fuente primaria del problema, el informe From the Ground Up: Balancing the NSF Astronomy Program. En su "resumen ejecutivo" (pág. 6) hace la siguiente recomendación (resumido):

El NAIC [...] debe buscar colaboradores que contribuyan personal o económicamente al funcionamiento de de Arecibo. De otro modo, sus instalaciones deberán ser cerradas.

En una presentación (PPT) del 23 de octubre pasado afinan un poco más y se reafirman en la propuesta en cuanto a la financión de la NSF/AST:

  • reducción a 8 M$ por año en los próximos 3 años.
  • reducción a 4 M$ para 2011.
  • recomendación de cierre si no se consiguen fondos de otras fuentes.

Aunque financiado como hemos dicho por la NSF, el NAIC está gestionado por la Universidad de Cornell donde esta recomendación no fue especialmente bien recibida. Por poner un ejemplo, el 13 de noviembre de 2006 Joseph A. Burns, administrador de Ciencias Físicas e Ingeniería de dicha universidad, se dirige al responsable del informe G. Wayne van Citters, Director de la NSF/AST indicándole que varias apreciaciones del informe, influyentes sobre la recomendación mencionada antes, eran erróneas. La respuesta es inflexible (ambas cartas pueden localizarse en la web de la NSF, aquí y aquí). Este es sólo un ejemplo de una oleada de protestas bastante general.

¿Y qué pasa si se cierra Arecibo? El observatorio trabaja en tres línes diferentes: radioastronomía, radar astronómico y estudios de la ionosfera. En todas las áreas tiene algo de curriculum. Una muestra mínima de cinco elementos:

  • a primeros de los 90 se descubren los tres primeros planetas fuera del Sistema Solar alrededor del Pulsar B1257+12.
  • en 1965 se establece el periodo de rotación de Mercurio.
  • a finales de 1980 se finaliza en primer mapa detallado de galaxias en el universo.
  • en 1974 se descubre el primer pulsar en un sistema binario lo que supuso una prueba de la Teoría de la relatividad y un Premio Nobel (1993) para los astronomos Russell Hulse y Joseph Taylor.
  • se descubren dos clases de púlsares: los de rotación rápida (cientos de veces por segundo) y los de rotación lenta (una vez por segundo)
  • El Observatorio mantiene, además de las misiones "convencionales" que dan lugar a resultados como los anteriores, otras dos que pueden considerarse algo especiales. Una es la escucha en busca de señales de vida extraterrestre. Lo que el radiotelescopio "escucha" se envía al proyecto SETI@home y se procesa en miles de ordenadores individuales de forma distribuida (sin resultados positivos hasta ahora). La otra se realiza con el radar planetario de 1 MW que, operando apenas un 5% del tiempo total, ha servido estos años para cartografiar la órbita de objetos potencialmente peligrosos para la Tierra. Se trata de los near-Earth asteroids (NEA), que pueden suponer una amenaza por su proximidad y posibilidad de colisión. En esta misión es 20 veces más sensible que el siguiente instrumento en la lista.

     

    Cerrar instalaciones científicas que funcionan sin problemas y que generan una enorme cantidad de información es una conducta absurda. Los anunciados recortes presupuestarios del complejo de Arecibo no son resultado de problemas económicos sino de una estrategia. Hay dinero pero no se quiere dedicar a eso. Por suerte ya hay movimientos para conseguir esa financiación complementaria.

    Respecto a los recortes en los próximos años, en Nature se da un dato apropiado para cerrar el post: los 4 M$ por año que necesita el Observatorio para funcionar a partir de 2011 son, curiosamente, la misma cantidad que la NASA tiene presupuestada este año para fiestas (algo de información rosa aquí). Vaaale, también tienen que divertirse y entregar premios, todo es cuestión de prioridades.

    ¡Ah! Se me olvidaba el otro dato impertinente: recuerden que 1 IWD (Iraq War Day, o Día de Guerra en Irak) equivale a unos 190 millones de dólares.

    17 noviembre 2007

    El origen humano del calentamiento global desacreditado

    Un trabajo publicado en el número del 3 de noviembre del Journal of Geoclimatic Studies muestra que el calentamiento global no está provocado por la actividad humana sino por el incremento del número de bacterias emisoras de CO2 en los fondos marinos. La referencia completa es:

    Daniel A. Klein; Mandeep J. Gupta; Philip Cooper; Arne F.R. Jansson, (2007), Carbon dioxide production by benthic bacteria: the death of manmade global warming theory?, Journal of Geoclimatic Studies, 13(3): 223-231.
    DOI:152.9967/r755100729-450172-00-4

    Donde los dos primeros autores son del Departmento de Climatología (University of Arizona) y los dos segundos del Departmento de Física Atmosférica (Göteborgs Universitet).

    El incremento de dióxido de carbono es natural y de origen bacteriano. Remitirá en los próximas décadas por lo que la alarma actual es infundada. Sigamos contami- nando que no pasa nada.

    El trabajo de Klein y colegas desacredita la teoría actualmente propuesta de que la causa primaria del calentamiento global son las emisiones de CO2 originadas por la actividad humana. Traduzco el resumen:

    Se ha establecido que el incremento de la temperatura global se debe mayoritariamente al incremento de concentraciones de dióxido de carbono en la atmósfera. La posición de "consenso" atribuye este incremento a la quema de combustibles fósiles en los procesos industriales. Este es el mecanismo que sirve de apoyo a la teoría de calentamiento global de origen antrópico.

    Nuestros datos demuestran que los que suscriben la teoría de consenso han obviado la fuente primaria emisora de dióxido de carbono. Mientras que una pequeña parte del incremento de las emisiones puede atribuirse a la actividad industrial, esta es ampliamente sobrepasada (más de 300 veces) por los volúmenes crecientes de CO2 producidos por eubacterias saprofíticas que viven en los sedimentos de las plataformas continentales que flanquean los océanos Atlántico y Pacífico. Es más, las emisiones bacterianas, al contrario que las industriales, se ajustan con exactitud a las fluctuaciones de la temperatura global de los pasados 140 años.

    Este trabajo propone también un mecanismo para explicar el incremento de las emisiones bacterianas de CO2. Una serie de "explosiones" naturales de algas que comienzan en el sigo XIX causaron mortalidades masivas entre los principales predadores de bacterias, los moluscos braquiópodos del género Tetrarhynchia. Estos periodos de explosión de algas, como muestra el registro paleontológico, se han producido por más de tres millones de años y siempre se les ha acompañado un importante incremento de emisiones de CO2 como resultado de la multiplicación bacteriana cuando la presión de predación disminuye. Este fenómeno dura unos 150-200 años. Si el episodio actual es consistente con este registro podemos esperar un máximo de emisiones entre este momento y la mitad del siglo, volviendo luego a los niveles de base. Nuestros datos sugieren que la actual inquietud sobre el calentamiento global de origen antrópico no tiene fundamento.

    El trabajo no ha estado exento de dificultades y hacen algunas denuncias demoledoras:

    Cuando hemos retado a eminentes científicos del clima que suscriben la teoría de "consenso", nuestro interés a tropezado con evasivas y en algunos casos con reacciones agresivas. Esta discusión ha sido prohibida por los editores de revistas científicas. Esta revista es una valerosa excepción pero ha estado bajo una gran presión para que no planteara el asunto. Se deben, concluimos, simplemente a que hay demasiado en juego.

    Y no sólo eso sino que se arriesgan por una causa justa:

    Nuestros resultados nos colocan en una difícil posición. Consideramos nuestra obligación publicarlo tanto por objetividad científica como para impedir un terrible error (por sus consecuencias extremadamente costosas) por parte de los gobiernos del mundo.

    Sabemos que esto puede poner nuestras carreras en dificultades.

    Hemos sido advertidos, individual y colectivamente [...] de que podemos ser privados de toda financiación en el futuro e incluso podemos arriesgar la financiación de los departamentos donde trabajamos.

    Creemos que esta intimidación académica contradice el espíritu de la libre investigación [...] y deploramos las respuestas agresivas que hemos tenido antes de la publicación y tememos la reacción que este trabajo pueda provocar.

    Las dificultades vienen avaladas por el editorial del JGS, (ahora inaccesible pero copiado aquí) y que decía entre otras cosas:

    Antes de venir a esta revista, Daniel Klein y colegas enviaron su trabajo a otras 43 revistas. Todas lo rechazaron y ninguna dió razón científica de su decisión.

    Una conspiración en toda regla.
    Bueno, hasta aquí la reseña de este apasionante y heroico trabajo. Ahora los metadatos:

    Hay más detalles interesantes y divertidos para la gente curiosa. Por ejemplo, los supuestos predadores son, según ellos, "moluscos braquiópodos", cuando se trata de grupos (Phylum) diferentes: Mollusca y Brachiopoda.

    Otro ejemplo, en este caso una referencia:

    Tibbold, WR and JD Rawsthorne (1998). Miocene, Pliocene and Plasticine fossil records for eukaryotic mass on the West African continental shelf. Journal of Submarine Research 18:5. 196-203.

    Mioceno, Plioceno y Plasticino, sí, han leido bien.

    Y así todo, una mezcla de jerga científica, ecuaciones delirantes (Q³uct, jyΦ = ∑cy³11, por ejemplo) y referencias falsas mezcladas con otras verdaderas.

    Puestos a comentar algo, diría que este intento de fraude revela lo peor y lo mejor de internet. Por un lado, cualquiera puede montarse una fachada más o menos convincente y vender falsedades dándoles la apariencia de un trabajo honrado. Por otro, el fraude se destapó en muy pocas horas gracias también a dos circunstancias: la existencia de la red que permite verificar los datos de forma independiente y la existencia de personas que no se tragan todo lo que le dicen.

    En España el trabajo no ha tenido eco porque nos enteramos de todo tarde, como siempre, eternamente pendientes de crisis políticas catastróficas que nos acercan asintóticamente al día del juicio final. Menos mal que en este caso no había nada de que enterarse.

    Que tengan un buen fin de semana.

    Nota: en Nature hacen una entrevista al supuesto autor del artículo fraudulento. No les recomiendo que la lean ya que aquí usa de nuevo un nombre falso y desde el anonimato su credibilidad es igual a la del propio artículo: nula.

    15 noviembre 2007

    Lena

    Abrí Digital Image Processing algorithms y allí estaba, en blanco y negro, repetida una y otra vez. Apenas diez minutos después volví a encontrarla en otro libro. Luego en un artículo en una revista. Luego en una presentación de diapositivas. El caso es que a lo largo de los años en la práctica totalidad de los libros sobre imagen digital aparecen cientos de variantes de la misma imagen, una y otra vez. Es como si se hubiera llegado a un acuerdo tácito: todo artículo sobre compresión fractal de imágenes, sobre resolución radiométrica, sobre... lo que sea, debe ir ilustrado siempre con imágenes de esta chica:

    La imagen original se digitalizó hace 34 años en el USC Signal and Image Processing Institute de la University of Southern California. Sobre quién lo hizo no hay mucho acuerdo aunque la mayoría atribuyen la tarea a Alexander A. Sawchuk, profesor ayudante en verano de 1973 y que estaba preparando una comunicación para un congreso. Necesitaba una imagen para trabajar y decidió pasar por el escáner (lo que en aquel momento era una tarea nada irrelevante) alguna fotografía que presentara texturas y un rango dinámico amplio. Eran trabajos que sentaban las bases para los algoritmos de compresión de imágenes, aún más importantes entonces que ahora debido al mínimo ancho de banda de Arpanet, la red precursora de Internet.

    Los escáneres planos de hoy están muy lejos del Miurhead que utilizaron en aquel momento. Era un escáner de tambor con una resolución fija de 100 ppp y una superficie útil de 5.12 pulgadas. Aprovechándola completamente podía generarse una imagen de 512x512 píxeles en color. La imagen se procesaría en un Hewlett Packard 2100.

    Escáner Miurhead de tambor

    Las tres imágenes originales (una para cada componente de color RGB) no salieron del todo bien y hubo que restaurar una línea perdida (simplemente duplicando la vecina). En aquel momento los escáneres eran kuy escasos y el SIPI recibió numerosas peticiones de copias de la cinta por parte de otros investigadores lo que contribuyó a hacer de la imagen un estándar para todos los desarrollos de los años siguientes.

    Algo más tarde alguien se preguntó quién era ella. Las pertinentes indagaciones dieron fruto: resultó ser una chica sueca llamada Lena Sjööblom que había emigrado a los EE.UU. en 1969 y que en 1972, con 21 años, trabajaba de modelo en Chicago.

    También se localizó la foto original: los ingenieros del SITI habían digitalizado, créanlo, una parte del poster central del Playboy de noviembre de 1972.

    Si los motivos de esta elección fueron sólo técnicos y si esta revista estaba allí por mera casualidad son detalles aún sin explicar adecuadamente.

    La imagen original sigue estando disponible en la base de datos del SITI; si quieren descargarla es esta (formato tif 768 kb):

    Imagen escaneada en 1973

    Lena Sjööblom se ha ganado un lugar en este sector de la ingeniería que abarca desde la trasmisión de señales hasta aplicaciones de internet. Actualmente vive en Suecia y no conocía su exótica popularidad hasta que la localizaron e invitaron a asistir a la 50th Anniversary Conference de la IS & T (The Society for Imaging Science and Technology) en Boston, mayo de 1997. Lena ha sido y es musa involuntaria de todo un sector de la ciencia y de la técnica.

    ¡Ah! Se me olvidaba (qué cabeza...), lógicamente con 512 píxeles la imagen de Lena fue sólo una parte del poster.

    13 noviembre 2007

    Uruguay toma la iniciativa

    En Uruguay ya se han pedido cien mil ordenadores portátiles para repartir entre los escolares con una segunda fase prevista de trescientos mil más, lo que cubriría las necesidades escolares en este país.

    El proyecto se llama Ceibal y está dirigido por el Laboratorio Tecnológico del Uruguay.

    Los ordenadores provienen de la fundación OLPC (One Laptop per Child), fundada por Nicholas Negroponte, del Instituto de Tecnología de Massachusetts. Se trata del muy anunciado "XO" cuyo precio ronda los 190 dólares (130 euros). La producción industrial comenzó el 5 de noviembre en la empresa Quanta Computer de Shanghai, fabricante de uno de cada tres portátiles en el mundo.

    El XO tiene una pantalla TFT de 7.5" (1200x900 píxeles), funciona con software libre (una versión de Linux como sistema operativo), tiene 256 Mb de RAM, se conecta en red mediante Wifi y consume apenas 2 W. No tienen partes móviles (no hay ventiladores y los discos duros han sido sustituidos por 1 Gb de memoria flash), son resistentes al agua y al polvo y pueden recargarse manualmente con una manivela (especificaciones detalladas aquí).

    Desde ayer y hasta el 26 de este mes funciona un programa de donaciones aunque sólo para EE.UU. y Canadá: por 399 dólares compras dos XO, te quedas uno y el otro va a un país en desarrollo.

    No todas las opiniones son favorables a este proyecto. Algunas objeciones me parecen legítimas pero otras son más bien curiosas, a veces irritantes. Por ejemplo, en los foros aparece con frecuencia pacientes del síndrome "me miro el ombligo": "pues por 400 dólares casi me compro un portátil normal". Lo cual es falso (400 dólares son 275 euros y con eso no haces nada) pero además olvida que los XO se conciben y fabrican con un objetivo diferente a que los españolitos nos compremos portátiles baratos. La otra es confundir el objetivo: "sería mejor dedicar esto a alimentación". La alimentación (y la paz) son lo primero, obviamente, pero aquí estamos hablando de educación y todo ello es complementario, no excluyente. Puestos a excluir se me ocurren algunas otras cosas que podrían ir en primer lugar.

    Otras visiones negativas son, por supuesto, más razonables: vean algunas sobre Perú y Uruguay. De su lectura me parece, sin embargo, que una buena parte de las críticas va más dirigida a la gestión de las compras y a la desmedida venta de soluciones mágicas a corto plazo por parte de los políticos.

    ¿Y qué ofrece este proyecto? En mi opinión, hay algo que no ofrece: una solución a problemas endémicos de desarrollo. Es obvio que si no hay escuelas y profesores, un mínimo tejido educativo, es inútil que haya XO, lo mismo que si hay guerra, los XO no van a pararla, y si hay hambruna, los XO no son comestibles. Pero hay muchos países que tienen unas condiciones razonables de vida y donde el OLPC o cualquier equivalente puede ayudar a crear algo nuevo: algunas oportunidades que antes no había. Y no sé bien la razón pero sospecho que estos ordenadores estarán mejor aprovechados que otros del "primer mundo" que son sólo un regalo más entre muchos.

    It's an education project, not a laptop project. (Nicholas Negroponte)

    12 noviembre 2007

    Engullidos y extrañados

    Perdón por el título, que es un tanto psicodélico, pero ahora verán la razón.

    El Relativistic Heavy Ion Collider (RHIC) está en el Brookhaven National Laboratory y es, como su nombre indica, un artefacto circular (4.3 km de longitud) que enfrenta dos chorros de iones pesados (oro) que circulan a enorme velocidad en sentidos contrarios. "Enorme velocidad" es una expresión adecuada ya que se llega al 99.995% de la velocidad de la luz. Comenzó a funcionar a finales de 1999.

    El RHIC en Google Earth

    Al encontrarse los flujos de iones se producen miles de choques cada segundo, cada uno de los cuales produce miles de partículas subatómicas de tipos diversos, más o menos efímeras y con diferentes propiedades. Estas partículas se estudian mediante detectores con nombres como PHENIX (que pesa 3000 toneladas), STAR (1200 t), BRAHMS o PHOBOS.

    Uno de los objetivos es la detección de materia en un estado llamado plasma de quark-gluones que sólo podría observarse, segun las predicciones de la cromodinámica cuántica, a densidades y temperaturas extremadamente altas, similares a las supuestas en los instantes inmediatos al big-bang. En el RHIC se crean estas condiciones con lo que algún aguafiestas avisó de la posibilidad de que algo indeseado y bastante desagradable saliera de la cazuela (Scientific American, julio de 1999, sección Letters to Editors).

    Hubo respuestas tranquilizadoras y la más elaborada fue la de R.L. Jaffe y colegas que en un trabajo del año 2000 revisaron posibles "escenarios catastróficos" en el RHIC. Encontraron tres:

    • creación de un agujero negro que gradual o violentamente se tragara la Tierra
    • una "inestabilidad del vacío" con una expansión catastrófica a la velocidad de la luz
    • la aparición de "strangelets": creación de "materia extraña" estable que absorbería la materia ordinaria (lo de "extraño" no viene de que sea raro, que también, sino de un tipo de quark).

    Según el estudio, no hay posibilidad de crear agujeros negros ni singularidades gravitatorias en el RHIC, al menos en forma suficientemente estable. Un posible agujero negro se evaporaría de forma inmediata. En cambio, dijeron, la tercera posibilidad debe considerarse con más detenimiento. En una reseña en Nature (9 de diciembre de 1999, p. 596) se dice más o menos literalmente (las cursivas son mías):

    Si los "strangelets" existen (posible), son razonablemente estables (improbable, deben mantenerse al menos 10-8 segundos, el tiempo necesario para atravesar el aparato), tienen carga negativa (la teoría se inclina fuertemente a lo contrario) y aparece alguno en el RHIC podemos tener un problema.

    El "problema" sería que el "strangelet" previsiblemente crecería engullendo todo el planeta en unos días, transformándolo todo a "materia extraña". Todo. Como la Nada en "La historia interminable".

    Los argumentos utilizados para tranquilizarnos son similares al principio antrópico: estamos aquí creando situaciones que, aunque no han sido directamente observadas, probablemente se dan en el universo. Dado que seguimos aquí aún, los strangelets con esas propiedades no se han producido ni se producirán.

    Los dos argumentos se basan en los rayos cósmicos, muy energéticos, y que producirían efectos similares a los del RHIC. El primer argumento es que la Luna sigue ahí: la Luna, con iones pesados en su superficie, ha sido bombardeada por rayos cósmicos durante millones de años y sigue siendo materia normal, ergo no se ha producido el temido efecto. El segundo es similar aunque algo más lejano: los rayos cósmicos chocan frontalmente en el espacio profundo sin que se haya observado efecto alguno.

    Estos dos argumentos, esgrimidos en el informe mencionado antes, no convencen a todo el mundo. Richard J. Wagner en The Strange Matter of Planetary Destruction lo deja claro:

    Ambos argumentos fallan tan obviamente que hacen sospechar que los autores son unos incompetentes o que están sujetos a fuertes prejuicios.

    Wagner plantea que el argumento "lunar" no es válido porque los rayos cósmicos en un choque contra un blanco estacionario no llegan ni de lejos a las energías del RHIC. También refuta el segundo argumento con criterios más sofisticados pero que se resumen en que sólo habríamos observado efectos en el caso de strangelets estables, mientras que en el RHIC podrían crearse otros de vida más corta, metaestables, pero igualmente catastróficos a escala terrestre.

    Wagner insiste en que nadie ha garantizado que la probabilidad de la catástrofe sea cero por lo que las colisiones más energéticas en el RHIC deberían ser aplazadas hasta tener completa seguridad de los riesgos.

    Este mismo asunto ha vuelto a plantearse con el LHC o Large Hadron Collider, experimento a desarrollar en mayo del próximo año 2008 en el CERN. En realidad se añade un detalle más: la posible creación de hipotéticos monopolos magnéticos que puedan catalizar una hipotética descomposición de protones. Un informe firmado por J.P. Blaizot y colegas nos tranquiliza: "We find no basis for any conceivable threat".

    Vale, pero si no teneis razón os voy a poner un pleito que os vais a enterar.

    Personalmente les confieso que el asunto no me preocupa aunque no sé bien la razón, probablemente mi indolencia o mi optimismo vital, o ambos. Los argumentos a favor de la seguridad se basan en las teorías existentes, incompletas, que manejan frecuentemente conceptos hipotéticos (la misma radiación de Hawking que evaporaría los posibles agujeros negros no ha sido confirmada experimentalmente). Los argumentos contrarios se basan en la imposibilidad actual (por desconocimiento) de asignar un valor nulo a la probabilidad de estos eventos y reclaman la aplicación del principio de prevención: estate quietecito y deja ya de joder con el ión que la vas a armar.

    Mientras tanto, algunos nos tranquilizan con una frase que se me antoja algo siniestra: "fabricar agujeros negros no es tan peligroso como suena". Glups...

    Otros más imaginativos dicen que precisamente por eso no encontramos vida extraterrestre, porque al llegar a este estado de desarrollo científico, todos se ponen a jugar a las canicas iónicas y pasa lo que pasa: al sumidero cósmico :-(

    Más información aquí.

    Grab this Widget ~ Blogger Accessories
     
    º