20 febrero 2007

Cómo se hizo "A los musgos se los lleva el viento" (4)

Disponemos ya de las 4 matrices de similaridad, una de distancia geodésica, otra de vicarianza y un par de centenares de conectividad por viento. El siguiente problema es comparar las primeras con el resto.
La comparación de matrices se hace habitualmente mediante el test de Mantel y ese fue nuestro primer análisis.
El test de Mantel estima la correlación existente entre dos matrices, pongamos A y B. La hipótesis nula es que los valores de ambas matrices no están correlacionados linealmente y la alternativa que existe una correlación superior a lo que cabría esperar por azar. El estadístico resultante es un coeficiente de correlación con rango entre -1 y +1.
Su significación estadística se estima mediante aleatorización: las filas y columnas de la matriz B se permutan al azar y para cada caso se calcula el estadístico correspondiente. Se supone que estas permutaciones, de ser cierta la correlación, tenderán a empeorar el coeficiente de correlación y, en caso contrario, harán que fluctue al azar. Tras realizar un número elevado de permutaciones, la posición relativa del estadístico inicial en la lista ordenada de coeficientes permite asignarle un valor de significación. En esta publicación se da la formulación, más detalles y algunos ejemplos del test.
Aquí aparece uno de los problemas típicos de muchos trabajos y que nunca sale a la luz: hay que localizar un programa que haga el test y, dado que nuestra vida es finita, que no nos la complique demasiado con su funcionamiento y los formatos de entrada y salida de datos.
Una búsqueda cuidadosa y bastante buena suerte hizo que diéramos con PopTools, que nos solucionó el problema. Aprovecho para hacerle publicidad: PopTools es un módulo para MS Excel desarrollado por Greg Hood del CSIRO (Australia). Además de añadir docenas de funciones matriciales, de simulación y procesos estocásticos, es gratuito y puede descargarse vía internet.
Poptools trata al usuario con amabilidad y nos permitió calcular con aceptable rapidez todos los coeficientes de correlación y su significación estadística. La representación gráfica de los resultados para los musgos es la siguiente (para el periodo inicial, actualmente tenemos una serie más amplia):

[pinche encima para ampliar]

En abscisas tenemos la serie temporal con los intervalos de 10 días. En ordenadas se representa el coeficiente de correlación. La línea rojiza sobre el valor 0.2 corresponde a un nivel de significación de 0.001.
Al ver estos nos convencimos de que íbamos por el buen camino. Los resultados mostraban correlaciones muy significativas entre la conectividad por vientos y la similaridad florística durante dos tercios del año. La correlación muestra ciclos anuales ya que al aproximarse el fin de año sus valores caen incluso por debajo de la línea de significación del 0.001. Los gráficos para hepáticas y líquenes son muy similares y sólo difiere el de los helechos donde no se observan los descensos de correlación de fin de año. Discutiremos el significado de estas diferencias en el último post.
Esta fase del trabajo muestra una relación muy significativa entre los vientos y la similaridad florística. Lógicamente había que compararlos con los de la hipótesis neutral. Para ello elegimos los periodos de máxima conectividad anuales, donde la colonización es más probable y los comparamos con la proximidad geográfica. Los resultados fueron los siguientes:

Podemos observar que los valores para la hipótesis neutral (columna de proximidad geográfica) o r(GP) son menores que los de viento r(WC) pero no mucho. De hecho, si comparamos por ejemplo 0.579 que es el r(GP) para musgos y 0.617, el r(WC) de 2003, la diferencia no es estadísticamente significativa para el tamaño muestral que tenemos.
Sin embargo, hay un argumento que el editor y los referees aceptaron y que es el siguiente:
  • tomados individualmente no podemos rechazar la hipótesis nula H0: r(WC) = r(GP)
  • pero estamos analizando un conjunto de 20 pares de coeficientes de correlación que pueden considerarse por su naturaleza de forma conjunta
  • en este conjunto, 17 de los 20 coeficientes r(WC) son mayores que los correspondientes r(GP) y sólo 3 son menores (los subrayados) lo que expresamos como 17-3.
  • si la hipótesis nula es cierta, esperaríamos encontrar valores de r(WC) mayores y menores que r(GP) aproximadamente a partes iguales: 10-10.
  • La suma de probabilidades de encontrar los resultados actuales (17-3) o peores (18-2, 19-1 y 20-0) por azar es 0.0007.
La idea, por tanto, es que existe una señal ahí que sobresale del ruido y que nos dice que el viento funciona mejor como variable explicativa que la mera distancia ya que la probabilidad de que los valores encontrados se deban al azar es muy baja. Aún así, con esta prueba no podíamos quedar contentos ni suponer que habíamos obtenido resultados definitivos. Además, siempre estaba ahí la sospecha de que los coeficientes podían ser inadecuados porque para estimarlos es necesario calcular desviaciones estándar y el significado de ese parámetro pierde sentido con distribuciones no gaussianas. La normalidad, podrán suponer, no es una condición que a los coeficientes de similaridad les apetezca cumplir ni de lejos.
Era necesario, por tanto, buscar una alternativa diferente a los tests de Mantel. Ya les adelanto que será una mezcla de dos técnicas llamadas respectivamente escalamiento multidimensonal y análisis de Procrustes. Y no se preocupen, que bajo esos nombres un tanto intimidantes subyacen métodos muy simples de entender.

13 febrero 2007

[Breves] Curso abierto

Grupo 9, o más abreviadamente, G9 es una asociación de las universidades públicas de Cantabria, Castilla-La Mancha, Extremadura, Islas Baleares, La Rioja, Navarra, Oviedo, País Vasco y Zaragoza que se han unido para colaborar en docencia e investigación.
Dentro del G9 se ha creado el Campus Virtual Compartido (CVC) donde se ofertan asignaturas de libre elección que se pueden cursar desde cualquiera de los campus a través de internet.
Una es la mía, llamada "Métodos de búsqueda documental para la elaboración de trabajos científicos" y he decidido que sea de acceso abierto. En esta página pueden encontrar las ofertadas por la Universidad de Extremadura y acceder a la mía. No es necesario registrarse ni hace falta contraseña.

Nota: los temas se irán abriendo de acuerdo con el calendario de la asignatura. Actualmente está disponible el tema 1 con sus ejercicios correspondientes. El día 5 de febrero se abrirá el tema 2 y así sucesivamente.

Cómo se hizo "A los musgos se los lleva el viento" (3 de media docena o así)

Todos sabemos que llegar de un sitio a otro en bicicleta depende, forma física aparte, de dos factores: la pendiente y el viento. En nuestro trabajo la pendiente no es una variable relevante ya que estamos sobre la superficie del mar. Pero el viento sí lo es. Si echamos un puñado de esporas al aire desde A y no hay viento, caerán a nuestros pies. Si el viento sopla hacia B llegarán más fácilmente si la velocidad es alta y menos si es baja. Si el viento sopla en dirección contraria, no llegarán. Todo tipo de situaciones y ángulos intermedios son posibles. Este conjunto de obviedades nos conduce a un tipo de cálculo llamado "de coste anisotrópico” y que, en nuestro caso, mide el coste o esfuerzo para llegar de A a B sobre un campo de vientos. Por ejemplo, en la figura de abajo, viajar desde la esquina inferior derecha hasta la superior izquierda tiene un coste mucho menor que al contrario (los colores representan la velocidad del viento).

Fragmento de mapa de vientos con la velocidad representada por el color

Nuestro objetivo es fácil de suponer: vamos a calcular el coste de ir desde cada uno de los 27 lugares estudiados a todos los demás. De ahí saldrá una matriz de conectividad que podrá ser comparada con las de similaridad florística.
En esta fase del trabajo nos encontramos con un par de problemas. El primero es de software: sólo encontramos dos aplicaciones que hicieran cálculo de coste anisotrópico y sólo teníamos opción de probar una gracias a una licencia de unos colegas.
Costó lo suyo porque, aunque las opciones de cálculo son muy completas, el programa no es demasiado amable y tampoco era muy evidente cómo poner la aplicación a funcionar sin que todo saliera con valores nulos o absurdos por defectos de diverso tipo, a veces bastante esotéricos. Al cabo de unos días de reunión y cachondeo en Cáceres (lo cortés no quita lo valiente) conseguimos que todo funcionara correctamente y se generaran mapas de accesibilidad (o su inversa, coste). Para construir un mapa sólo es necesario introducir el punto de origen (por ejemplo, las coordenadas de Bouvet) y situarlo dentro de una matriz de unos pocos miles de filas y columnas donde cada celdilla contiene los valores de acimut y de velocidad del viento. El resultado es un mapa como el de abajo, que representa el coste desde Bouvet (a la izquierda, al borde de la zona blanca) hasta el resto del territorio para el periodo 1-10 de febrero de 2002. Colores claros representan conectividad alta (coste bajo) y viceversa.

Mapa de accesibilidad desde Bouvet. Proyección polar estereográfica con centro en el Polo Sur

Lo primero que salta a la vista es la estructura circular del coste asociado al viento en el sentido de giro de las agujas del reloj: es más fácil que Bouvet conecte con el otro lado de la Antártida que con Sudáfrica, aunque esté geográficamente mucho más cerca. Eso significa que el viento muestra patrones muy diferentes a la hipótesis neutral (isotrópica) y, veremos más adelante, a la de vicarianza.
Pero ya hemos dicho que los vientos cambian. Por ese motivo, estos modelos de coste (uno para cada lugar) se calcularon sobre los vientos existentes en periodos de diez días: actualmente tenemos un total de 36 modelos por año x 5.5 años x 27 lugares = algo más de 5300 modelos (pronto analizaremos el año 2006).
El conjunto de modelos representa la evolución espacial y temporal de la conectividad en esta amplia zona del Hemisferio Sur con lo que podemos construir las matrices de conectividad (unas 200) sin más problemas que no hacerse un lío con los números y los directorios.
Al final de esta etapa el proyecto ocupaba algo más de 230 Gb en el disco del ordenador y llegaba la hora de empezar a comparar matrices y sacar resultados.

09 febrero 2007

Cómo se hizo "A los musgos se los lleva el viento" (2)

Nos quedábamos el otro día con el cálculo de las 4 matrices que representan la similaridad florística para los 4 grupos estudiados entre los 27 lugares del trabajo. Lo que ven a continuación es un trocito de la matriz correspondiente a los musgos para las primeras cinco localidades. Los coeficientes están en el rango 0-1.

Obviamente, los problemas para construir las matrices de “distancias” de acuerdo con cada una de las hipótesis que queremos comprobar son distintos en cada caso.

La más simple es la distancia geográfica, que calculamos a partir de las coordenadas geográficas de los lugares. Al ser curva la superficie terrestre, el cálculo de la distancia no es inmediato pero hay “calculadoras geodésicas” que nos dan la solución para dos puntos cualesquiera situados sobre un elipsoide que se usa como modelo de la superficie terrestre. Con esta calculadora el cálculo de las distancias y su estandarización en el rango 0-1 es cuestión de media hora. La matriz inferior muestra los valores para las mismas localidades que la de arriba.

La matriz correspondiente a la hipótesis de la vicarianza es más incierta y necesita una breve explicación. Las zonas que hemos definido pueden dividirse en dos grupos: las que han estado unidas alguna vez en el supercontinente Gondwana y las que no. Gondwana se fragmentó progresivamente desde hace unos 200 millones de años y la hipótesis de la vicarianza defiende que la similaridad florística será inversamente proporcional al tiempo que hace que se separaron las diversas zonas. Lógicamente, es necesario establecer ese tiempo, cosa nada fácil para nosotros que, además, no nos lo creíamos. Para evitar problemas, usamos los datos de Isabel Sanmartín y Fredrik Ronquist de la Universidad de Uppsala y cuya representación gráfica (cladograma geológico, lo llaman) les pongo a continuación. Sanmartín y Ronquist son partidarios de la explicación vicariancista por lo que sus estimaciones son las más adecuadas para no introducir prejuicios por nuestra parte (eso queda bonito y científicamente correcto, en realidad es no tenemos mucha idea de este tipo de cálculos).

De estas distancias temporales se derivan de forma inmediata la matriz de distancias que usaremos en las pruebas estadísticas. Observarán, sin embargo, que no disponemos de datos para los 27 lugares, lo cual es lógico porque hay algunos que no existían hace ese tiempo. Por poner un ejemplo, Bouvet es una isla volcánica relativamente reciente por lo que no podemos establecer un vínculo geológico con Gondwana. La reducción del tamaño de muestra tendrá como consecuencia un aumento de la incertidumbre estadística y tal vez invalide los resultados pero eso nos lo dirán los estadísticos.

Finalmente, deberíamos calcular las distancia sobre el viento y eso es algo más complicado.
Hasta el momento del trabajo, los datos sobre el viento se limitaban a los tomados por globos sonda, boyas meteorológicas y barcos. Los resultados eran mapas sinópticos como el siguiente:

Y con eso no podemos hacer nada porque se trata de trayectorias genéricas trazadas a partir de datos dispersos. Pero desde junio de 1999 la solución estaba volando a 800 km de altura.

Se trata de un satélite de la NASA que lleva un “Quick Scatterometer” (QuikSCAT para los amigos) del que ya les hablé anteriormente. Lo mejor del asunto es que los datos de viento son de cobertura mundial (sobre los océanos), con una resolución mínima de 25 km y tomados diariamente. Además pueden descargarse libremente en el ftp del PO.DAAC con lo que seguimos sin gastar un euro en información.
Abajo tienen un mapa grosero (la densidad de datos es mucho mayor) de los vientos medios del día 5 de enero del 2001, donde el acimut se representa por la flechitas y la velocidad por el color.

Tras descargar unos cuantos gigas de datos en bruto tuvimos que invertir un par de meses en desarrollar el flujo de trabajo que permitiera leer los ficheros originales y transformar los datos a un formato legible por nuestras aplicaciones informáticas y a una proyección geográfica adecuada para el análisis. El que quiera ver una explicación de estas fases de “trabajo sucio” pero imprescindible puede echar un vistazo a esta publicación. Como los vientos cambian, no es razonable hacer un único análisis promediando los valores sino que es necesario hacer múltiples análisis para periodos cortos de tiempo. Decidimos calcular la accesibilidad a intervalos de 10 días para lo cual calculamos los valores de acimut y velocidad medios para cada pixel del área de trabajo. El trabajo en esta etapa ocupaba 34 Gb en el disco.

En la próxima entrega del culebrón veremos como se usan los vientos para hacer el cálculo de la accesibilidad desde un sitio a otro: malos valores cuando el viento sopla en contra o no sopla y buenos valores con viento fuerte a favor. Como ir en bicicleta.

05 febrero 2007

Cómo se hizo "A los musgos se los lleva el viento" (1)

Ya saben que una parte del conocimiento científico se adquiere proponiendo hipótesis que luego deberían ser sometidas a prueba. Sin embargo, la ciencia está llena de hipótesis que nunca han sido comprobadas a pesar de lo cual a veces se asientan fuertemente y adquieren la pinta de conocimiento consolidado cuando, en realidad, su validez es poco más que especulación.
Hace cuatro años, un colega y yo nos planteamos resolver uno de esos viejos problemas que estaban pidiendo a gritos algo de apoyo experimental.
El problema es muy simple de plantear: si examinamos las floras de diversos lugares del mundo encontramos similitudes y diferencias (Perogrullo dixit). Esta realidad se ha reflejado en mapas de provincias y regiones fitogeográficas donde el mundo se divide en zonas de flora similar. Pero estos mapas son sólo la representación de la realidad. La pregunta pendiente es ¿cuál es la explicación?

Para explicar la distribución global de las especies vegetales en el mundo se han propuesto varios mecanismos. Las hipótesis más extendidas son, muy sintetizadas, las siguientes:
  • Hipótesis de la vicarianza (HV), propuesta en la década de los 70, que propone que las similitudes y diferencias actuales dependen de la historia geológica de los continentes. Si un continente se fragmenta y estos fragmentos alejan a causa de la deriva continental, las poblaciones de todas las especies que vivían en él quedan aisladas entre sí. La evolución en cada fragmento será independiente a partir de la fragmentación porque no hay intercambio genético. Si esto es cierto, la flora de dos lugares será tanto más parecida como cercana haya sido su separación.
  • Hipótesis geodésica (HG), que propone que la similaridad entre dos lugares es función inversa de la distancia geográfica entre ellos. La idea subyacente es que cada lugar dispersa semillas, esporas y propágulos en general en todas direcciones y que la probabilidad de que lleguen a otro lugar depende de la inversa de la distancia.
  • Hipótesis de dispersión a larga distancia (HD), que propone un mecanismo similar al anterior pero donde la dispersión está dirigida por el viento por lo que la "distancia" entre dos sitios debe medirse como la facilidad de acceso mediante los flujos de viento existentes. El viento interviene como medio de transporte por lo que este mecanismo, si funciona, lo haría con semillas, esporas o fragmentos ligeros. Los cocos y los bisontes quedan excluidos.
Fíjense que la HV asume que la distribución actual de las especies depende de un proceso histórico de millones de años (más de 200 si partimos de la fragmentación de Gondwana), mientras que las otras dos suponen implícitamente que son procesos actuales de dispersión los que explicarían mejor esa distribución. La HG no excluye la dispersión por el viento pero la supone igual en todas direcciones (isotrópica) mientras que la HD la supone anisotrópica.

Este fue el panorama que me planteó J en una llamada telefónica a principios del año 2002. El reto era interesante y la primera pregunta evidente ¿estamos en disposición de solucionar esto? La respuesta dependía de dos cosas: un diseño experimental que permitiera contrastar las tres hipótesis y datos y herramientas suficientes para llevarlo a cabo.
Tras unas cuantas discusiones llegamos a un diseño experimental simple, al menos en principio (acuérdense de Hannibal Lecter citando, creo recordar, a Marco Aurelio: "Alice, simplicidad y primeros principios").
  1. Elegir unos cuantos grupos de plantas que conozcamos bien y un conjunto de lugares para comparar, elaborar una lista de las especies que hay en cada lugar y calcular un índice de similaridad entre todos ellos. Por ejemplo, entre el sitio x y el sitio y tendremos una similaridad S(x, y) que es la misma que la S(y, x).
  2. Calcular las "distancias" entre cada lugar x e y de acuerdo con cada una de las tres hipótesis. En el caso anterior tendríamos DHV(x, y), DHG(x, y) y DHD(x, y).
  3. Comparar la similitud entre las diferentes D**(x, y) y las S(x, y)
  4. Ganador: la hipótesis D** que tenga una mayor similitud con la S
Resuelto (¡ja!) el boceto de diseño experimental, pasamos a los datos. Empezamos por los biológicos: uno o mejor varios grupos vegetales o animales de lugares a diferentes distancias entre sí. Cuantos más mejor porque de esa forma será más fácil separar la señal del ruido. Pero ¿dónde? ¿en Europa? ¿en América de Sur?
Hoy veo que la decisión sobre el escenario que hizo J fue crítica: una buena parte del hemisferio Sur terrestre pero eligiendo, además de algunas zonas continentales periféricas, sitios realmente aislados entre sí: islas. El punto clave es la reducción del ruido en el modelo: el mar es un enorme sumidero que impide el transporte por tierra o en saltos sucesivos con lo que el escenario se "limpia" de transportes contaminantes (recordemos que dos hipótesis son de dispersión y la otra geológica).

Pueden suponer ustedes la tarea siguiente ¿qué grupos incluimos? Por motivos diversos elegimos cuatro: musgos, líquenes, hepáticas y helechos, que podrían tratarse independientemente para aumentar la fiabilidad del análisis.

A partir de ese momento, los componentes del grupo se pusieron a buscar datos en la bibliografía (yo me libré de esta etapa, ufff). J los musgos, P los helechos, A e I los líquenes. Semanas de búsquedas, peticiones y consultas, cientos de artículos, unas docenas de libros... que acabaron con la construcción de cuatro grandes checklists, una para cada grupo. La lista de lugares incluye desde Tierra del Fuego hasta Bouvet pasando por la Península Antártica: 27 lugares muy diferentes y distribuidos por todo el hemisferio austral.

Lugares incluidos en el estudio

Una checklist no es otra cosa que una tabla donde en las columnas están las especies, en las filas los lugares y en las intersecciones un 1 o un 0 en función de que la especie esté presente o no. Fácil.
Al final trabajamos con un total de 1851 especies incluyendo los cuatro grupos.

Las checklists permiten abordar la siguiente tarea con facilidad: el cálculo de un índice de similaridad. Utilizamos el índice de Ochiai que tiene en cuenta las especies compartidas o no entre cada par de lugares y que varía entre 0 y 1. El resultado de esta etapa es ya una referencia para el resto de los análisis: tenemos 4 matrices de similaridad de 27x27, una para cada grupo taxonómico. Obviamente, las matrices son simétricas y la diagonal es la unidad.
Es importante destacar que las matrices han sido construidas a partir de datos bibliográficos gratuitos y disponibles para todo el mundo. Algunos conjuntos de datos se pidieron a los especialistas y debemos reconocer que la respuesta fue rápida y positiva, aquí no hubo la cerrazón que dicen es tan característica en los científicos.

El siguiente paso es construir las matrices de "distancias" entre los 27 lugares correspondientes a cada una de las hipótesis a comprobar. Eso será en la próxima entrega.

03 febrero 2007

Después del tsunami

El post anterior levantó ampollas. La verdad es que era mi intención, el post era una provocación y lo escribí como tal, pasándome un poco de la raya. Consecuentemente, asumo el rapapolvo. Ahora que el tsunami empieza bajar (aún llegan olas secundarias) y las orejas dejan de pitarme a ratos, debería hacer una reflexión sobre el asunto.
No he hecho estadística de los comentarios pero he apartado los que discuten con argumentos. Algunos están de acuerdo en líneas generales con lo escrito, otros en absoluto, pero da lugar a que a mí me llegue información valiosa y pueda, o no, reconsiderar postulados.
Lo más preocupante, en mi opinión, son dos cosas que siempre pasan. No en este post, sino en cualquier blog donde se toque un tema polémico.
La primera es que poca gente lee los comentarios anteriores por lo que cuestiones ya respondidas se reiteran. La segunda es algo más preocupante y muy de moda en la política pero que debería estar más lejos en este ámbito nuestro: el recurso a la descalificación personal como contra-argumento. Aún así, de todos los comentarios me he hecho una buena idea de mí mismo: soy Mr. Hyde redivivo con un toque del conde Drácula y turbante talibán. Las encuestas de calidad no refrendan eso pero supongo que mis alumnos están aterrorizados.
Cerrando el apartado anterior, me voy a sincerar, esta vez sin ánimo de provocar, respondiendo a algunos comentarios.

La universidad española tiene varios problemas, a cada cual más serio, en todos los ámbitos de decisión, desde el Ministerio del ramo hasta el despacho del último profesor mileurista (que hay muchos). Algunos de esos problemas son solucionables a medio plazo pero no soy optimista. Otros no veo que vayan a mejorar en décadas. En cualquier caso, los alumnos no son responsables de ellos salvo en un aspecto: su ausencia generalizada de los órganos de gobierno donde, aunque no lo sepan o no se lo crean, tienen un peso significativo que podría aprovecharse mejor.

Empezando por arriba: desde el Ministerio, en los últimos años y afectando a ambos partidos políticos gobernantes, no se ha planificado con claridad la transición al EEES. Eso ha supuesto mucha pérdida de tiempo, muchas iniciativas segadas y bastante desaliento entre los profesores que se preocupan (créanme, alguno hay). Aún así, el movimiento alrededor del EEES es posible que genere efectos beneficiosos para algunos de los problemas básicos que mencionan algunos de ustedes, especialmente el mirar más hacia lo que se hace en otros países y, tal vez, adoptar técnicas de enseñanza diferentes cuando sea necesario. Las técnicas de enseñanza y los objetivos que se buscan son esenciales pero están sin definir. Mientras tanto cada profesor hará lo que pueda o quiera, habrá que esperar a ver si el tema se aclara.

La posición de funcionario tiene un efecto perverso, es verdad: nadie puede echarte salvo que entres en la delincuencia más descarada y aún así es difícil. La ventaja es que los que trabajan pueden hacerlo sin la tensión que tienen en sistemas extremadamente competitivos, el otro extremo del péndulo. ¿Qué es lo que pasa aquí? Pues que el profesor bueno lo hace bien y el malo lo hace mal. El profesor que quiere investigar, investiga y el que no, no. El que se molesta está en su despacho o al menos disponible (yo, por ejemplo, estoy a caballo entre dos ciudades y doy el móvil y correo a los alumnos para que las tutorías puedan ser en cualquier momento) y el que no, desaparece días o semanas enteras. El que tiene entrañas renueva su discurso, sus prácticas y sus formas buscando mejorar y el que no sigue trayendo sus transparencias de hace diez años sin mayores reparos.

La calidad del profesorado debe medirse teniendo en cuenta varias claves. La primera es que la mayoría de los profesores actuales sacamos la plaza con la antigua LRU. Eso significaba que dos de los miembros del tribunal los ponía tu departamento (frecuentemente tú mismo) y tres salían a sorteo entre los del área de conocimiento. Lógicamente, el de casa (también llamado "el bicho") jugaba con ventaja siempre y una mayoría de las veces ganaba la oposición. A veces injustamente pero otras no. Mi caso no es de los más descarados: yo no era estrictamente "de la casa" porque, aunque llevaba dos años en el departamento, venía de otra universidad, no era mi área aunque tenía experiencia en ella, también tenía publicaciones y docencia en media docena de maestrías y cursos de doctorado nacionales y extranjeros. El caso es que apenas tuve que pelear porque nadie más vino a competir. Aunque la saqué no tengo la sensación de que fuera un regalo: un año de preparación y un curriculum bastante más largo. De todas formas, el viejo sistema facilitó lo que hoy llamamos "endogamia", donde estabas de meritorio durante años y luego, al cabo del tiempo, como en el ejército, se te premiaba con un ascenso.
La actual LOU creo que tenía buenas intenciones y eliminó lo de los dos miembros del tribunal "a dedo" pero generó un sistema imposible que sólo va a durar unos años porque la actual reforma lo cambia de nuevo. Eso ha generado más frustración entre los aspirantes a profesores que ven que les cambian las reglas del juego constantemente.

¿Más problemas? Pues sí, muchos. Pero los comentaré otro día por mera cuestión de extensión. Hoy, para terminar en positivo y porque aún siento las agujas de vudú clavadas en los riñones, me atrevo, sin prepotencia (creo), a recomendar unas pocas reglas de supervivencia. Porque en la universidad deben ustedes flotar como un corcho para terminar la carrera. No se crean que fuera, en la sociedad real, no hace frío. Lo hace y mucho. Las reglas son pocas pero no veo que casi nadie las siga:
  • ante una nueva asignatura, evalúen al profesor. Los hay de varios tipos pero sólo dos les van a causar problemas: los que exigen sus apuntes al dedillo (y no se te ocurra mirar otros libros) y los que creen que suspendiendo a todos la tienen más larga. En el primer caso, mala suerte (yo tuve dos de esos): sólo hay dos opciones. La primera es agachar la cabeza y pasar por el aro. La segunda es reclamar (veremos eso más adelante). Pregunten a los de otros cursos, recojan información y actúen en consecuencia: el profesor no es necesariamente un enemigo pero tampoco lo contrario.
  • en casi todas las asignaturas basta con elegir un par de buenos libros para saber lo necesario, no sólo para aprobar, sino para saber. Si su profesor no se los menciona (aunque debería) busquen información en otras universidades, con profesionales, en foros... pillen los libros y úsenlos. Muy importante: todo está escrito, el profesor es una figura prácticamente prescindible salvo que sea realmente bueno.
  • no usen excesivamente internet para los trabajos y el estudio. No es que sea una mala fuente en general (la wikipedia es normalmente buena) pero es que se nota mucho cuando se usa el corta/pega y los temas o trabajos quedan mal estructurados.
  • hagan trabajo colectivo, el trabajo individual es necesario pero al 100% no es lo más eficaz. Si tienen, pongamos, 20 temas en una asignatura, pónganse de acuerdo y que cada persona o en grupos de dos preparen a fondo un tema, uno solo, con los libros adecuados. Sería bueno que luego hicieran una puesta en común pero aunque no lo hagan los temas serán mejores y el esfuerzo individual se habrá aprovechado también mejor.
  • háganse un horario y respétenlo; la planifícación es imprescindible para aprovechar el tiempo. Incluyan horas de estudio y biblioteca (documentación) porque sino todo se juntará al final con los resultados previsibles.
  • si hay problemas serios con un profesor únanse, vayan al sindicato de estudiantes y pongan una queja formal al vicerrector de turno. Normalmente esto no se hace porque creen que no va a ser útil. Les aseguro lo contrario. Usen el poder que tienen si alguien pretende abusar del suyo.
  • finalmente, si no hay forma de aprobar, pidan un tribunal. Es un procedimiento reglamentado y que debe usarse. les recomiendo que lo hagan en grupo y que, en ese examen, estudien a fondo.
Y sí, he prometido que haré un post sobre lo que quisiera que los profesores supieran, que tampoco me caso conmigo mismo.

02 febrero 2007

Cosas que me gustaría que mis alumnos universitarios tuvieran claras

El sermón del viernes

Por fin, mis dudas aclaradas. Un par de posts han conseguido despejar una niebla que hacía que no entendiera nada de lo que pasaba en las clases de la universidad (es injusto generalizar, quédense con el bulto y salven a una minoría).
Pueden ustedes leerlos: el primero es 13 cosas que me habrían gustado aprender en la Universidad (sic). Y digo "sic" porque "habría gustado" es lo correcto, no "habrían gustado". En fin, pecata minuta. Y el segundo es Cosas que se deben saber antes de entrar en la Universidad.

Como la contestación pormenorizada a ambos se hacía cansina he preferido cambiar de estrategia: voy a contarles las pocas cosas que me gustaría que los alumnos tuvieran claras al entrar en la universidad.
Todo encaja en la frase de E. W. Dijkstra que ya cité en otro post:
La tarea de la universidad no es ofrecer lo que la sociedad demanda, sino lo que la sociedad necesita. Las cosas que la sociedad demanda son, en general, bien conocidas, y para ello no necesitas una universidad, la universidad tiene que ofrecer lo que nadie más puede proveer.
A la sombra de esa síntesis me gustaría comentarte unas pocas cosas:
  • Que la Universidad no tiene como objetivo colocarte lo más rápidamente posible en una empresa, para eso están las agencias de empleo. Es posible que lo haga pero no es su principal objetivo.
  • Que la Universidad no tiene porqué enseñarte lo que las empresas quieren: los deseos de las empresas no son las obligaciones de las universidades. Es seguro que coincidirán en un porcentaje alto pero la empresa no dirige la formación ni la investigación
  • Que la Universidad no es la prolongación del Instituto: tus técnicas y tus hábitos de trabajo, si los tienes, deben cambiar. Si no, fracasarás.
  • Que la Universidad no puede enseñar solamente habilidades sino preferentemente las bases del conocimiento. Algunas te parecerán inútiles pero aquí no decides tú.
  • Que yo, como profesor, doy por sentado que eres adulto y que vienes voluntariamente: no tengo que vigilarte ni llevarte de la mano como haría con un niño de primaria.
  • Que yo, como profesor, no tengo porqué darte apuntes de las asignaturas sino guiarte, explicar e sugerir sobre lo que debes aprender, leer y estudiar.
  • Que aunque te de esos apuntes, se trata de que los uses como guía, no como texto: puedo exigirte más y, de hecho, lo haré.
  • Que tú, como alumno, debes trabajar, leer y estudiar dentro y fuera de las clases a jornada completa: la universidad es tu trabajo.
  • Que yo, como profesor, no voy a entender fácilmente que tu única curiosidad sea si tal cosa “entra en el examen”.
  • Que yo, como profesor, no voy a entender fácilmente que las tutorías estén vacías hasta una semana antes del examen.
  • Que yo, como profesor, no voy a entender fácilmente que me pidas una prórroga para las prácticas cuando veo que en tu ordenador del aula el Messenger ocupa el 80% del tiempo de actividad.
  • Que la universidad tiene problemas, en efecto, pero que las leyes del mínimo esfuerzo y del botellón la noche de los jueves no van a solucionar los que tú tienes.
En suma, y poniéndome en plan House:
  • Que yo ya tengo trabajo, eres tú el que se está jugando el futuro: ponte las pilas.
Por eso me sorprende ver que yo, funcionario del Estado y por tanto con empleo garantizado de por vida, trabajo todos los “puentes”, la mayoría de las fiestas y bastantes fines de semana mientras observo perplejo las mesas de los becarios vacías, las aulas de informática vacías, las bibliotecas vacías…
Y no me contestes que los profesores somos un desastre o que la universidad padece una corrupción generalizada. Yo lo sé mejor que tú, ya hablé de eso en otros posts y no disculpo a los parásitos que la universidad, como gran organismo que es, soporta y soportará. Pero hoy no toca eso, hoy hablamos de ti.

Postdata: David Santo ha decidido corregir y aumentar esta historia. Lo ha hecho, creo, con más sabiduría y menos agresividad que yo. Échenle un vistazo. Los improperios, en su caso, me gustaría quedármelos yo ¿de acuerdo?

01 febrero 2007

Estado de indefensión

La Generalitat catalana ha publicado el Decreto 31/2007 “por el que se regulan las condiciones para el ejercicio de determinadas terapias naturales” (en catalán en el original).
El proyecto de decreto fue objeto de una intensa discusión hace unos meses. En este blog hablamos de él en algunas ocasiones que les recomiendo relean para ponerse al día:
Además de otras iniciativas paralelas igualmente majaderas
La vía legal para oponerse a la barbaridad es, en la legislación española, la de presentar alegaciones ante la propuesta de decreto.
Así se hizo desde ARP- Sociedad para el Pensamiento Crítico a través de un documento firmado por unos cuantos, entre ellos yo.
Nuestra legislación prevé que las alegaciones deben ser contestadas individualmente, dando razón de su aceptación o rechazo.
Este mecanismo legal, de salvaguarda de los derechos del ciudadano, no se ha respetado. Nadie ha contestado a las alegaciones y el decreto sale tal como estaba.

Para cerrar.
En este país estan pasando cosas muy raras últimamente. Sin mezclar churras con merinas acabo observando que todas ellas tienen un factor común: se ha renunciado a la inteligencia y con ello a muchas otras cosas como efecto colateral.
Esto permite que algunos personajes demasiado estúpidos para triunfar en una profesión exigente medren en las aguas turbias de la política donde, ese es el problema, tienen poder.
Ese poder, con la estupidez adosada como un parásito, se propaga poco a poco invadiendo ámbitos donde ya no podemos reírnos o acudir a la ironía distante: la educación, la cultura y la salud.
El defensor del pueblo, instancia a la cual acudí en su momento para pedir su intervención ante el reconocimiento de los "medicamentos" homeopáticos echa balones fuera y dice que no puede entrar a valorar la verdad o mentira de la homeopatía.
Los derechos fundamentales quedan al arbitrio de un parlamento de indocumentados.
La Generalitat no contesta a las alegaciones.

Esto tiene un nombre: estado de indefensión.

Nota: querida L. Este año no pudiste empezar a estudiar medicina, tu vocación desde siempre. La nota de corte era alta y no pudo ser, un año en secano. O no. No te preocupes y, sobre todo, no seas idiota. Hay un sitio donde podrás ejercer cualquier mancia con unos cursitos impartidos por gente tan de fiar como este sujeto y su maravilloso curriculum. Podrás ganar un montón de guita administrando agua y flores a la gente. De paso quedarás bien y harás amigos porque podrás criticar la anquilosada medicina tradicional mientras das unos pases por el canal energético “mu” para liberar a la paciente de su molesto cáncer de pecho, producto de un desequilibrio energético en sus canales "fu". En caso de deceso puedes decirle a los familiares que hablen con la consejera Marina Geli.

Más información en el blog de Alfonso López y en el de Javier Armentia.

30 enero 2007

[Breves] Un Windows ligero para el PC de la abuela

Uso dos ordenadores portátiles, uno con Linux (Ubuntu) y otro con Windows XP. Me atrae el software libre, obviamente, y casi todo lo que tengo funcionando en ambos aparatos entra en esa categoría. Aún así, algunas aplicaciones pesadas o de cálculo intensivo son de pago y las ejecutamos remotamente en un servidor mediante escritorio remoto o similar. Y para hacer esto con más eficacia llevaba un tiempo buscando un sistema operativo ligero que nos devolviera a los tiempos de terminal contra mainframe. En Linux esto está razonablemente bien resuelto pero en Windows faltaban piezas.
Y hace dos o tres días me he enterado de una versión de Windows XP surgida el año pasado y pensada para funcionar sobre ordenadores viejos: Windows Fundamentals for Legacy PCs. Las necesidades no son muchas: 128 MB de RAM, un procesador Pentium, 1 Gb de disco y tarjeta de red y aunque dice que está pensado para funcionar en modo terminal parece que no es cierto, que funciona sin problemas de forma autónoma.
Podrán encontrar más información en la wikipedia o en la propia Microsoft. También he encontrado una zona de descarga vía bitTorrent en este enlace donde pueden obtener una imagen del CD de instalación (eso sí, paciencia: 575 Mb) ¿Clientes de bitTorrent? Yo estoy usando en estos momentos Ktorrent desde Ubuntu pero hay unos cuantos clientes libres para Windows como, por poner un ejemplo, Azureus. Para que WFLPC funcione es necesaria una clave pero leo que pueden usar la misma que la de su WXP normal. Como estoy en fase de descarga aún no me ha dado tiempo a probarlo, ya les contaré si resucito algún PC fósil.

27 enero 2007

Infecciones benéficas

Donde no está de más que un hongo infectado te penetre en las células

Dichanthelium lanuginosum
es una gramínea sin nada que llame la atención, una hierba más entre muchas. Pero Yellowstone nunca defrauda. Y nuestra protagonista de hoy crece en este Parque sobre suelos geotérmicos cuya temperatura supera los 50 ºC durante unos meses al año. Otras plantas en similares condiciones se marchitan y mueren sin resistirse demasiado. Pero esta no.
Hace unos años, una tal Regina S. Redman decidió examinar esta peculiar capacidad de superviviencia. Analizando la gramínea lo primero que encontraron fue un hongo endófito en las raíces, hojas, tallos y semillas de Dichantelium (¿se acuerdan de la babosa fotosintética?). El análisis del ADN mostró que era una especie de Curvularia que, además, se mostró incapaz de crecer o reproducirse independientemente de la planta a más de 40 ºC. La conclusión de esta etapa era que Curvularia vivía exclusivamente dentro de las células de Dichantelium y allí sí parecía poder reproducirse sin problemas.

La siguiente etapa de experimentos fue más interesante aún: se esterilizaron semillas de Dichantelium para generar plantas libres del hongo endófito. Luego se plantaron y, tras germinar, una parte fue inoculada artificialmente con el hongo y otra no. En los días posteriores se observó que ambos tipos de plantas no se diferenciaban demasiado en crecimiento ni desarrollo cuando se las mantenía a temperaturas moderadas. Luego, sus raíces fueron sometidas a temperaturas desde 50 a 65 ºC durante ciclos de varios días. A 50 ºC las plantas libres de hongos se marchitaban y sufrían clorosis (falta de clorofila). A 65 ºC todas murieron. Las plantas simbióticas sobrevivieron a ambas pruebas.
Al analizar las plantas supervivientes, se vió que el hongo estaba en todas ellas: ambos simbiontes habían sobrevivido al calor y, de alguna manera, se habían protegido mutuamente.
Aunque los mecanismos que permitían la mutua protección seguían siendo desconocidos parecía que el esquema general había sido descrito de forma más o menos completa. Pero no, la naturaleza es barroca y en este caso no se conformó con simples endosimbiosis.

Desde bastantes años antes se conocía la existencia de virus en los hongos. Los genomas de los virus fúngicos se caracterizan por una doble cadena de ARN que se denomina dsRNA y que no se presenta en los propios hongos. Por tanto, detectar su presencia es un buen indicador de infección vírica. Lo que sigue se lo pueden suponer: el hongo Curvularia, simbionte de Dichantelum, estaba siempre infectado por un virus. Lograron aislarlo y se vió que tomaba la forma de partículas esféricas de unos 27 nm de diámetro.

CThTV, Curvularia Thermal Tolerance Virus

Los siguientes experimentos eran obvios y les comento directamente los resultados: las plantas simbiontes con hongos pero libres de virus no resistieron los ciclos de calor 65 ºC durante 10 horas diarias durante 2 semanas y cayeron tal como lo habían hecho las plantas libres de hongos. Los simbiontes planta-hongo-virus soportaron perfectamente que les cocieran las raíces.

Estamos ante un caso de triple simbiosis donde un virus que infecta un hongo que infecta una planta confiere protección ante el estrés térmico a todos los componentes del grupo siendo todos los simbiontes necesarios. He querido comentarlo para que se vea con claridad que la simbiosis entre organismos hace extraños compañeros y que la riqueza de relaciones entre organismos vivos y no tan vivos nos provee de sorprendentes ejemplos. Por cierto, el mecanismo por el cual todo esto funciona no se ha descubierto aún.
El virus ha sido bautizado como CThTV (Curvularia Thermal Tolerance Virus) y su ficha puede consultarse en esta página de ICTVdB - The Universal Virus Database. Sólo le falta un pase por Gran Hermano para hacerse famoso.

Un par de referencias:
Luis M. Márquez et al., 2006, DOI: 10.1126/science.1136237
Regina S. Redman et al., 2002, DOI: 10.1126/science.1072191
y si quieren ver un caso de virus-bacterias-insectos con protección ante parásitos:
Nancy A. Moran et al., 2005, DOI: 10.1073/pnas.0507029102

26 enero 2007

Vecinos invasores

Donde las invasiones no vienen del espacio sino de nuestra inconsciencia

1. Un petrolero descarga en un puerto del sur de Australia. Llena los tanques de agua de mar para usarla como lastre y vuelve a su origen, por ejemplo, el Mar del Norte. Allí vacía tanques y sentinas y con ello libera a miles de kilómetros de su área de distribución natural unos cuantos miles de millones de organismos, desde fitoplancton hasta posiblemente peces en diversos estados de desarrollo, pasando por docenas de grupos zoológicos poco favorecidos por la publicidad. Lo más habitual es que este trasiego ocasione la muerte inmediata de todos los viajeros forzosos pero ocasionalmente las condiciones ambientales del lugar de destino no son desfavorables.

2. Hablamos entonces de especies invasoras cuya entrada tiene efectos devastadores sobre los ecosistemas preexistentes. ¿O no? Las especies no tienen áreas de distribución fijas e inmutables en el tiempo sino que varían, avanzan sobre frentes de colonización, se reducen en otros sitios e incluso desaparecen. Las áreas de distribución se establecen en una suerte de equilibrios con otras especies, con las condiciones ambientales siempre cambiantes y con la capacidad de propagación: viabilidad, resistencia, dispersión.... Por ejemplo, parece que las hayas (Fagus sylvatica) entraron en la Península Ibérica hace unos pocos miles de años procedentes de Centroeuropa y aquí se extendieron sobre una buena parte del territorio. Pero no consideramos al haya una especie invasora sino autóctona. La pregunta pertinente es ¿qué diferencia las especies invasoras de las que han penetrado y se han extendido de forma natural sobre nuevos territorios?

3. La respuesta que propongo la comentábamos brevemente hace unos meses en otro blog. La "invasión" es un proceso que se diferencia de la colonización natural al menos en tres aspectos: el tiempo utilizado (breve), el mecanismo de colonización (inducido) y los sujetos implicados (especies aisladas).
Las especies tienen un área de distribución que varía en el tiempo pero la colonización de nuevas áreas o la desaparición de las antiguas será gradual pero no será protagonizada por una especie aislada sino por una comunidad más o menos surtida. El papel que esta comunidad desempeña es mantener una estabilidad que en el caso de las especies invasoras no se aplica. La escala temporal y la entrada brusca, no gradual, también son importantes porque en los movimientos naturales normalmente hay tiempo para reajustes graduales de los ecosistemas preexistentes. La consecuencia de la invasión es un desequilibrio en los ecosistemas invadidos que carecen de tiempo para adaptarse y aceptar al nuevo componente sin excesivos trumas. Este desequilibrio suele manifestarse por la desaparición de especies y por la reducción de la diversidad.

4. Dentro de este esquema general hay casos de todo tipo: especies introducidas que no ocasionan desequilibrios ni efectos negativos aparentes o especies cuya aparición tiene un efecto devastador sobre los ecosistemas anteriores. El impacto de una invasión depende de factores como la cantidad de individuos iniciales, su sensibilidad ante predadores, las condiciones ambientales, la existencia de competidores, la capacidad de reproducción y dispersión u otros menos evidentes como el grado de degradación del ecosistema invadido, que puede hacerlo más sensible. Como ejemplo de caso no traumático, los castaños (Castanea sativa) parecen ser una especie introducida en la Península Ibérica hace un par de miles de años que, sin embargo, se ha adaptado e integrado en bosques mixtos atlánticos sin efectos negativos.

5. Pero hay otros casos. El quagga era una especie de équido similar a la cebra (se dice que una subespecie) que fue aniquilado en su hábitat sudafricano a mediados del siglo XIX. Los quaggas se han reencarnado y, como decía la niña de Poltergeist, ya están aquí bajo la forma, en inglés, de quagga mussel, zebra mussel o, en español, de mejillón cebra (Dreissena polymorpha).
El mejillón cebra tiene su área de distribución natural en las cuencas de los mares Caspio y Negro. La navegación fluvial y tal vez otros mecanismos transportaron larvas de esta especie por buena parte de Europa de forma que, allá donde se encontraron cómodas, se establecieron. En estos nuevos hábitats el mejillón mostró una tasa de reproducción elevadísima, un hambre feroz y un espíritu competitivo digno de Bobby Fisher. Y encima no es comestible. Los Grandes Lagos norteamericanos fueron colonizados probablemente por la limpieza de tanques o vaciado de sentinas hace apenas 25 años. Desde entonces el mejillón cebra no ha dejado de extenderse alcanzando densidades increibles de decenas de miles de individuos por metro cuadrado. El resultado es devastador incluso para las infraestructuras humanas y no se ha encontrado solución alguna. En España han saltado las alarmas ante la expansión en algunos grandes ríos, como el Ebro. Han saltado embalses aguas arriba con lo que sólo se entiende por causas artificiales, en concreto por ser usado como cebo por pescadores poco conscientes del problema.

6. Y es que somos la especie invasora más peligrosa. No sólo somos prolíficos, destructores, voraces y resistentes sino que además adoptamos conductas de riesgo. La del petrolero es una de ellas pero hay otras más cercanas. Por ejemplo, pasen por unos grandes almacenes y echen un vistazo a las cajas de semillas para césped. Encontrarán sin gran dificultad que en la composición aparece un Paspalum paspaloides, más conocido como hierba del búfalo. En España esta gramínea se está extendiendo por todas partes cuando debería haberse quedado, por ejemplo, en las grandes praderas norteamericanas. O el Carpobrotus, una bonita crasulácea sudafricana que tapiza playas y acantilados en la costa cantábrica, eliminando de paso al resto de la flora y que se extiende desde los jardines que la consideran muy decorativa. O el amazónico camalote (Eichhornia crassipes) extendiéndose por el río Guadiana hasta cubrirlo de una espectacular alfombra verde.

El camalote en el río Guadiana (foto de diciembre de 2005 procedente de El País)

7. Al final este asunto está lo que algunos han llamado la “ruleta rusa ecológica”, un juego donde importamos y exportamos especies sin demasiada preocupación por las posibles consecuencias. Los ecosistemas son resultados de milenios de un juego complejo de interacciones y son razonablemente sólidos y resistentes ante variaciones naturales pero no están preparados ante agresiones antrópicas, mucho más devastadoras. Los desequilibrios acaban siempre igual: pérdida de diversidad, extinción de especies, un mundo más pobre...

22 enero 2007

Becas selectas

Nos llegan unos dípticos donde el grupo X concede 50 becas para trabajar en la empresa. Las ofrece a estudiantes de Y (ingeniería técnica) o Z (ingeniería). Son 12 meses por un monto total de 900 euros (no al mes, en total).
Eso sí, con una aclaración para que luego no haya equívocos: "dicha cantidad será destinada al pago de matrícula (recibo) y libros".
Más adelante dicen (la letra cursiva sigue siendo mía) : "los beneficiarios de las ayudas están obligados a prestar un servicio mínimo de 4 horas semanales" en la empresa.
Y tras poner tus datos personales te piden que contestes a una pregunta: "¿estarías interesado en ampliar el número de horas de dedicación a las que te obliga la beca (4 horas semanales) y ampliarlas como trabajo en prácticas hasta media jornada?"
Y hay que contestar poniendo una crucecita: sí o no.

¿Será que pienso mal de todo o esta oferta me parece un poco rara?

21 enero 2007

Que no, que no trabaje con imágenes JPEG

Es sabido que la compresión de imágenes tiene las ventajas de reducir el tamaño de almacenamiento y, consecuentemente, las necesidades a la hora de trasmitir los datos: menos ancho de banda o, lo que es equivalente, más imágenes por unidad de tiempo.
Es menos conocido que los satélites de observación terrestre no toman todas las imágenes que podrían porque no hay tiempo para transmitirlas a las estaciones terrestres. El cuello de botella es, en este caso, el ancho de banda. Por este motivo y otros similares, los algoritmos de compresión se aplican desde las pequeñas imágenes que usamos en las páginas web (mejor 40 kb que 400 a la hora de visitar una página) hasta los Gb de las imágenes hiperespectrales. Por poner un ejemplo, una imagen tomada con una cámara digital de 5 megapíxeles se codifica en tres canales de 8 bits, uno por cada color primario en el modelo RGB. Eso hace un total de 24 bits/pixel lo que supone 15 Mbytes si guardamos la imagen sin comprimir. Como ninguna imagen contiene los más de 16 millones de colores que pueden codificarse con los 24 bits/píxel (y en cualquier caso no podríamos distinguirlos) una de las opciones más utilizadas para reducir el tamaño es usar un solo byte por pixel, cuyo valor representa un color determinado. La paleta de 256 colores se construye en función de las caracteristicas de cada imagen y el resultado suele ser visualmente indistinguible del original aunque realmente suponga una fuerte pérdida cromática. En las imágenes GIF se utiliza esta técnica y cada imagen se acompaña del diccionario de colores “a medida” para permitir la decodificación.
Pero la clave del proceso está en la palabra visualmente. En realidad la pérdida es importante y este procedimiento no es aceptable para todas las aplicaciones. Por ejemplo, en las imágenes destinadas a proceso numérico jamás debe perderse resolución radiométrica. El motivo es que los algoritmos que extraen información de estas imágenes sí “ven” las variaciones y los resultados se verán a su vez afectados.
Los algoritmos de compresión se suelen dividir en dos clases: sin pérdida y con pérdida. Los primeros garantizan que la imagen decodificada es idéntica a la inicial; en los segundos, en cambio, se acepta una distorsión en los valores originales para aumentar la tasa de compresión. Entre los primeros están las compresiones LZW, usadas en los formatos TIFF y GIF habitualmente. Entre los segundos el más conocido es el formato JPEG, que se basa en un sofisticado proceso de codificación que permite una compresión a demanda: más compresión con más pérdida o menos compresión con menor modificación de los valores originales.
Realmente, el algoritmo JPEG puede comprimir algunas imágenes con una eficacia aplastante sin que visualmente se note la diferencia. Pero todo tiene su precio y hay un efecto menos evidente que puede convencerles de no usar el formato JPEG ni siquiera para sus fotos de vacaciones. El problema es que si vamos a regrabar la misma imagen varias veces, por ejemplo, para varias sesiones de retoque, la distorsión se acumula en cada ciclo de descompresión-compresión sin que sea posible recuperar la calidad original. El número de ciclos necesarios para que la distorsión sea aparente dependerá de los parámetros que controla la calidad de la compresión: abajo les pongo un ejemplo para que vean el efecto.

Fragmento ampliado de la imagen original en formato TIFF

El mismo fragmento tras 20 ciclos de grabación con compresión JPEG con calidad 40 (en una escala 0-100).

En la imagen superior verán fuertes distorsiones cromáticas y de luminosidad, así como un efecto de bloques. Este se debe a que JPEG trabaja sobre bloques de 8x8 píxeles cuyos parámetros de compresión no tienen continuidad con los vecinos.
¿La solución? Huir de la compresión JPEG y usar el formato TIFF con 24 bits por píxel para guardar las imágenes. Ya estarán a tiempo de reducirlas para su blog o destrozarlas para otros objetivos pero al menos mantendrán un original en buen estado. Para más detalles pueden seguir el protocolo aconsejado por Paulo Porta que pueden encontrar aquí junto con otros artículos que desvelan aspectos básicos de la fotografía digital. Muy recomendable invertir un rato en leerlos todos.

Nota: dos programas para trabajar con imágenes. Para verlas y alguna manipulación simple, lo mejor que en encontrado es Irfanview, muy ligero y con operaciones útiles como, por ejemplo, la transformación masiva en "batch". Para edición en serio, el GIMP que además se distribuye con licencia GNU. Ambos gratuitos, claro.

13 enero 2007

El extraño caso de la babosa que se movía por energía solar

Hablamos de los líquenes hace una temporada en una breve entrada titulada formas de vida. Tan breve que, aparte de la foto, sólo decía lo siguiente:
Los líquenes no son plantas, son organismos simbióticos donde un alga y un hongo se unen para vivir complementándose mutuamente.
A los líquenes se les asignan nombres específicos como si fueran organismos únicos en vez de comunidades simbióticas donde los papeles se reparten en beneficio mutuo: el alga fotosintetiza para ambos y el hongo la protege de la desecación. Una unión fructífera porque los líquenes aparecen en hábitats realmente extremos. El esquema basado en dos simbiontes es sólo el caso más simple porque a veces las especies implicadas forman tríos: en los líquenes del género Lobaria, al hongo y al alga se les asocia una cianobacteria que añade al grupo la capacidad de fijar el nitrógeno atmosférico. Tampoco son infrecuentes los organismos simbióticos formados por cuatro biontes y hay sospecha razonable de organismos formados por cinco.
Estas “complicaciones” no son raras en la naturaleza, donde el concepto clásico de especie falla más que una escopeta de feria si queremos abarcar a la vida en su conjunto.

Un caso llamativo de estrategia para vivir es el de un grupito de moluscos que ha tomado afición a apropiarse de organismos externos para su propio provecho.
Elysia chlorotica es una especie de babosa marina que se alimenta de un alga llamada Vaucheria litorea. El alga es digerida en su totalidad con una notable excepción: los cloroplastos, orgánulos celulares capaces de realizar la fotosíntesis. Sorprendentemente, los cloroplastos del alga se incorporan a los tejidos del molusco en una forma llamada endosimbiosis intracelular. Los cloroplastos simbióticos son plenamente funcionales y generan nutrientes que son utilizados por la babosa. El resultado es que el molusco puede vivir mediante la fotosíntesis de sus adquiridos cloroplastos durante meses (siempre que haya luz, claro).

Elysia chlorotica en un acuario. Los cloroplastos de dan un intenso color verde y permiten que ejerza una fotosíntesis "prestada" pero funcional.

La endosimbiosis comienza en los moluscos juveniles, que no heredan los cloroplastos y nacen libres de ellos. Aún no se sabe gran cosa sobre como reconocen y seleccionan los cloroplastos del resto de componentes celulares del alga, ni como las células del animal los fagocitan para incorporarlos a su citoplasma.
Lo que sí está claro es que esta simbiosis es algo notable por varios motivos. El más llamativo es que el cloroplasto simbionte no es un organismo completo sino un orgánulo celular semiautónomo. Aunque posee su propio ADN y se divide independientemente de la célula en la que está inmerso, la necesita para el suministro de proteínas que no puede sintetizar por sí mismo. Esto significa que la célula del molusco debe disponer de los mecanismos adecuados para que los cloroplastos no mueran rápidamente: el éxito está claro ya que viven durante bastantes meses en el medio intracelular del molusco y sólo unos días en un medio extracelular. No se conoce con certeza cómo Elysia puede replicar las funciones presentes en el alga y generar las proteínas específicas necesarias para el mantenimiento de los cloroplastos pero hay una hipótesis que a mí me resulta enormemente atractiva: hay evidencia de que existe una transferencia génetica del alga a las células de los animales jóvenes antes de que la simbiosis se establezca. Si esto es así, podria explicarse la síntesis de proteínas necesarias para el cloroplasto porque la trasferencia lateral de genes permite a las células animales satisfacer las necesidades del cloroplasto. Si no es así habrá que buscar explicaciones alternativas para la excepcional pervivencia de estos orgánulos en un medio donde, en principio, no podrían mantener más que unos días.
Hay más ejemplos de esta extraordinaria habilidad. Por ejemplo, una babosa marina pariente de la anterior, Elysia timida también retiene cloroplastos pero de un alga diferente llamada Acetabularia acetabulum. Otra sólo se alimenta y usa cloroplastos de Caulerpa, otra de Halimeda. Todo un despliegue de adaptaciones con una base común y, flotando sobre todo el proceso, esa transferencia genética que hace pocos años sólo se reconocía en bacterias y que, poco a poco, parece no limitarse a ese caso.

Un par de referencias:
Mujer, C.V. et al., 1996, Chloroplast genes are expressed during intracellular symbiotic association of Vaucheria litorea plastids with the sea slug Elysia chlorotica. PNAS, 93(22): 12333-12338
Rumpho, M.E. et al., 2000, Solar-Powered Sea Slugs. Mollusc/Algal Chloroplast Symbiosis. Plant Physiology, 123: 29-38.

Congreso en Mérida

Lamento no poder invitarles a una reunión de frikis o de blogueros pero sí puedo hacerlo al congreso que celebraremos en Mérida dentro de un mes y cuyo lema es "De los modelos a la realidad" ¿les suena?
Hablaremos esencialmente de métodos mediante los cuales los sistemas de información geográfica y la teledetección pueden ser aplicados a la resolución de problemas en ecología. La página del congreso es esta y la de nuestro grupo de investigación, bautizado Kraken, esta otra. Somos primerizos y debo reconocer que ya he pasado alguna noche de sueño de baja calidad debido a este asunto pero estoy seguro de que merecerá la pena.

09 enero 2007

Ridiculum vitae

La propuesta es muy simple: es absolutamente necesario que los currículos académicos y los sexenios concedidos sean públicos y no, como hasta ahora, secretos celosamente guardados para no revelar al mundo vergüenzas propias o ajenas.
El cabreo viene a cuento de que hoy a un colega le han denegado la acreditación para la figura de profesor contratado doctor. No se trata aquí de clamar ante la injusticia sino, simplemente, de reconocer que los aspirantes a plazas están absolutamente indefensos ante las decisiones. ¿Por qué? Pues porque no saben a quién tienen delante, qué méritos les acreditan para juzgar ni qué baremos se aplican para la resolución. Aceptado o denegado, esa es la cuestión y eso es todo. Anónimo, injustificado, tal vez afectado por un grado de arbitrariedad insoportable, no se sabe.
La idea subyacente a todo esto es que hay un conspicuo conjunto de personas que aparecen por comisiones y tribunales cuyos méritos para estar ahí son imposibles de definir.
La tentación es decir que no tienen esos méritos porque cuando uno mira en la Web of Science o en Scopus, sus publicaciones en revistas con factor de impacto parecen inexistentes. Recordemos el caso de un insigne funcionario al que sólo se le puede asignar una solitaria publicación (F.I.=0.4) en su dilatada experiencia docente e investigadora. Tan dilatada que, además de Catedrático de Universidad, es secretario de Estado de Universidades e Investigación y dirige, por tanto, la política de investigación nacional.
Como estoy seguro de que cometo una injusticia al sospechar que hubo tiempos donde se saldaban algunos méritos propongo de nuevo la solución: transparencia e información. Y la fórmula más simple e inmediata es que los currículos académicos de todos los funcionarios de universidades y de todo el personal contratado o becado deben ser públicos: que corra el aire por sus páginas, que sepamos realmente de qué vamos cuando se decide el futuro de la gente, su empleo o su financiación.
La solución técnica no es especialmente compleja, para eso tenemos internet: un servidor centralizado en el Ministerio donde cada uno tenga acceso a editar sus méritos y todos podamos leerlos.
Veo que este post me ha quedado muy breve. Pero es que la idea es muy simple.

08 enero 2007

Mirando por el retrovisor: algunas entradas en el 2006

Gracias a Google Analytics he podido echar un vistazo a las entradas más leídas del semestre pasado (no hay datos de antes). Sin analizar nada, el conjunto me parece interesante porque son de carácter bastante diferente. Las 8 primeras son las siguientes:
  1. Las cintas desaparecidas del Apolo 11
  2. Modelos matemáticos y realidad
  3. Sobre la necesidad de liberar los datos científicos
  4. Creencias persistentes ¿ha nacido usted con luna llena?
  5. Continentes a la deriva y GPS
  6. Benedicto XVI y la evolución biológica
  7. El último tilacino
  8. Libros, grutas y arqueólogos
No sé si son mis preferidas porque, aunque las he leido todas (pueden creerme) y mi memoria es perfectamente selectiva (sólo recuerdo lo accesorio, nunca lo fundamental), son demasiadas para mantener una lista ordenada en la cabeza. Aún así, echo en falta una redactada en el agosto profundo de Castilla que me permito rescatar del olvido: los ratones paracaidistas. Y, por redondear a la decena, hoy, pero hace justo un año, escribí un post muy breve defendiendo las lenguas, idiomas y dialectos de los miserables que los usan como arma: de idiomas oprimidos y opresores.

04 enero 2007

Modelos, realidad, incertidumbre… y Turing de nuevo

Comentábamos el otro día que probablemente el aspecto más importante a la hora de valorar el test de Turing era tener claras las relaciones entre los modelos y la realidad.
Antes de seguir no me resisto a incluir aquí una de las frases lapidarias atribuidas a Dijkstra (no verificada) y sacada de las Wikicitas a propósito de nuestro debate:
«La pregunta de si un computador puede pensar no es más interesante que la pregunta de si un submarino puede nadar.»
Pero sigamos. Quería desarrollar uno de los párrafos de Pedro en los comentarios al post anterior:
Lo que él [Turing] propone es análogo a la confrontación de un modelo con la realidad en el método científico: diseñar experimentos para comparar lo que hace el modelo con lo que hace la realidad, y si no somos capaces de falsar la hipótesis de que el modelo reproduce el comportamiento real, nos quedamos con el modelo.
No me gusta demasiado la última frase porque creo que se refiere a situaciones conceptualmente irreales y que cuando usamos modelos en la investigación no procedemos así. A ver si me explico comentando algo sobre objetivos y métodos de modelado (RAE dixit) aunque es difícil sintetizar esto en dos páginas.
Usamos los modelos como recurso para simplificar la forma, estructura o funcionamiento de objetos y procesos reales y, así, poder deducir o conocer algunas de sus propiedades con más comodidad: la complejidad de la realidad hace incómodo (o imposible) someterla a experimentación directa y usamos una simplificación. Para que este método funcione es necesario suponer que la simplificación de la realidad no penaliza excesivamente la exactitud del resultado. Lógicamente, esta suposición no puede hacerse sin más y debe comprobarse y valorarse cuantitativamente siempre.
Aceptamos por tanto que lo que genera el modelo (resultados) será similar a lo que generaría el objeto real en las mismas condiciones de experimentación (escenario) y utilizamos los resultados dándoles un valor de verosimilitud. Pero esta suposición debe tomarse con pinzas y tener en cuenta:
  • Que el escenario es a su vez un modelo de las condiciones reales, simplificado y truncado, por lo que no puede ser asumido directamente como “real”.
  • Que, consecuentemente, los resultados se generan condicionados por la calidad del escenario, de los modelos de los objetos (a través de datos) y de los modelos de los procesos (a través de ecuaciones o algoritmos que las traducen al lenguaje informático).
Es decir, en teoría siempre podremos falsar o refutar la hipótesis de que el modelo se comporta como la realidad. Los modelos “perfectos” no existen por propia definición, donde la realidad se simplifica en sus componentes y en sus interacciones. Si no hiciéramos esa simplificación el modelo no sería tal sino un réplica, un duplicado, y no tendría ventaja alguna el usarlo porque no reduciría la complejidad del experimento.
Para saber si podemos usar un modelo es necesario estimar la similitud del resultado modelado respecto al resultado real y valorar si ese resultado nos es útil y para qué.
Esto puede realizar de dos formas:
  • Cuando es posible, contrastando una pequeña parte de los resultados modelados con resultados reales (muestra de contraste).
  • Cuando no es posible, realizando un análisis de sensibilidad (aunque éste debe hacerse siempre).
Un ejemplo me ayudará a explicarme: tenemos una hoja de cálculo para modelar las variaciones de temperaturas en un perfil de suelo a lo largo de un día. La hoja representa el suelo en estratos o capas de 2 cm (primera simplificación) y estima la transferencia de calor de un estrato a otro mediante elementos finitos. Los datos de entrada son la luz solar (irradiancia) que se calcula cada 20 minutos (segunda simplificación), un coeficiente de conductividad y otro de difusividad que suponemos iguales para todo el perfil (tercera simplificación), etc. En el modelo hemos descartado introducir la nubosidad por su irregularidad (suponemos un día despejado) y así otros factores que creemos menos relevantes.
Este modelo tiene la bondad de ser contrastable: iríamos a varios lugares de características diferentes, pondríamos termómetros a varias profundidades y contrastaríamos las temperaturas reales con las predichas. Las divergencias nos permitirían dar valores de incertidumbre a los resultados mediante, por ejemplo, un intervalo de confianza al 95%. Los resultados adoptarían la forma, por ejemplo, de 13.2±1.5 ºC (I.C.: 95%). Lógicamente, el valor de incertidumbre puede no ser constante sino función de la temperatura y de los valores de conductividad o de sus combinaciones…
La idea fundamental es que conocemos hasta dónde llega la exactitud de los resultados modelados. Si nos vale o no es otra cuestión y depende de nuestros objetivos: habrá trabajos que soporten esa incertidumbre y otros que no.
Segundo ejemplo, más de moda que el anterior: predicciones de cambio climático. Resulta que aplicamos el modelo X de predicción de cambio climático y encontramos que en una zona determinada X predice una subida de 3.0 ºC en los próximos 80 años. ¿Cómo puedo saber si este resultado es fiable? Pues lamentablemente este modelo no es contrastable y no podemos, en principio, saber hasta qué punto es fiable. ¿Estamos perdidos? No del todo, podemos hacer una prueba que nos va a dar información indirecta sobre el asunto. Sería la siguiente: si el modelo X usa n variables xi (i=1..n) como entrada, vamos a hacer mil réplicas del proceso de modelado. Lógicamente, esos mil valores de temperatura que resultan serían iguales pero en estas réplicas vamos a cambiar esos valores originales añadiéndoles una desviación aleatoria: xi + ei . Esa desviación ei estará dentro del rango de incertidumbre de la medida xi. ¿Y cómo sabemos esa incertidumbre? Midiendo repetidas veces el valor xi en la realidad. Es decir, asignamos una incertidumbre a cada uno de los datos de entrada. En nuestro caso, si una de las entradas es la transparencia de la atmósfera habrá que medirla unos cientos de veces y calcular el valor medio y la incertidumbre asociada. Los modelos de cambio no se harán introduciendo repetidamente el valor medio sino muchos valores posibles calculados a partir de la incertidumbre de la medida. Y todo esto para cada variable y valor de entrada en el modelo X.
Este procedimiento nos permitirá ver, analizando los resultados, varias cosas. Entre ellas cuál es la variación en esos resultados. Cabe que esa subida de 3.0 sea, en realidad 3.0±0.3 ºC o cabe que sea 3.0±5.3 ºC. En este segundo caso el modelo no nos vale para nada que se me ocurra.

Otra cosa que podemos ver es si hay variables críticas, es decir, variables cuyas variaciones implican cambios relativamente mayores en los resultados que otras. Esas variables deben ser medidas con mayor exactitud que el resto (o dicho de otra forma, los otros pueden ser medidos con menos exactitud) lo que facilita la eficaz distribución de recursos a la hora de planificar la toma de datos.
Este análisis debe hacerse siempre, no sólo cuando el modelo no es contrastable, porque la información que nos proporciona es enormemente útil.
Dado que los modelos imitan el comportamiento de los sistemas reales sólo aproximadamente debemos analizar cuidadosamente qué modelo es adecuado para el objetivo que perseguimos y hasta que punto los resultados son de suficiente calidad.

Enlazando con el asunto del test de Turing, que un modelo haga buenas predicciones o proporcione buenos resultados no significa que funcione igual que la realidad. Por eso, la frase de Pedro mencionada al principio “si no somos capaces de falsar la hipótesis de que el modelo reproduce el comportamiento real, nos quedamos con el modelo” yo la entiendo como “si no encontramos diferencias entre los resultados del modelo y los resultados reales, aceptamos el modelo como buen generador de resultados”. Pero no podemos ir más allá y suponer que los mecanismos que generan resultados en el modelo y en la realidad son los mismos. De hecho, por la propia definición de modelo, nunca lo son. No lo sería ni siquera si el ordenador fuera inteligente porque suponer que su inteligencia fuera humana es de un antropocentrismo insostenible. De ahí mi objeción de ET al test de Turing que propuse días atrás y que hasta el momento no ha sido criticada :-)

Nota: más cosas sobre este tema han sido tratadas hace poco en CPI y en Malaciencia donde Remo y Alf han presentado aspectos distintos del asunto con ejemplos que van desde sistemas planetarios hasta el cambio climático.

02 enero 2007

Cuando el software te la juega

Sobre la fragilidad de la cadena: donde todo se va al traste por un cambio de signo

Una noche de hace tres años me desperté con un amago de taquicardia. No era por problemas de salud sino porque, mientras dormía, alguna neurona seguía a lo suyo y me había avisado de que un trabajo que llevábamos meses haciendo podía estar mal. Trabajábamos elaborando cientos de simulaciones de dispersión sobre campos de vientos donde los datos eran miles de vectores medidos por el satélite QuikSCAT durante varios años. Cada vector venía definido por su módulo (velocidad del viento) y su acimut (dirección respecto al Norte geográfico). Y en mi nada pacífico sueño la neurona en vigilia me había preguntado sobre si estaba seguro de que los datos de acimut representaban hacia dónde soplaba el viento y no de dónde. Yo había asumido la primera opción en su momento en su momento y nos habíamos lanzado a una vorágine de cálculos con nuestros flamantes nuevos ordenadores multiprocesador.
En esa noche recordaba vagamente que había leido lo del sentido de los datos en uno de los informes técnicos. Pero si había metido la pata llevábamos meses trabajando sobre datos erróneos y nuestros resultados eran, por tanto, sólo basura (elegante y digital, eso sí). Con sudores fríos busqué el informe y al cabo de un rato pude dar con el párrafo que me confirmaba, menos mal, que había interpretado bien el significado de los valores.
Mi susto de medianoche acabó bien pero otros que no tuvieron tanta suerte. Según leo en el número de Science de antes de Navidad, Geoffrey Chang tenía una trayectoria profesional envidiable. Especializado en cristalografía de proteínas (¿se acuerdan del desentrañamiento de la estructura del ADN?), a los 28 años encontró empleo en un instituto de investigación de gran prestigio (Scripps Research Institute en La Jolla, California), al año siguiente recibió una medalla en la Casa Blanca que supone el máximo reconocimiento para jóvenes investigadores. Su laboratorio en el Departamento de Biología Molecular generó una serie espectacular de publicaciones sobre la estructura de proteínas de las membranas celulares…

Y de repente la pasó lo que tanto temían los galos de Asterix. Un grupo suizo publicó en Nature un artículo donde ponían en duda las estructuras de Chang y colaboradores. Estos revisaron su trabajo y acabaron descubriendo un "pequeño" problema: en uno de sus programas informáticos había un error que invertía dos columnas de datos cambiando parámetros que influían directamente en los resultados finales. Este programa había sido utilizado en varios trabajos más con lo que la catástrofe adquiría enormes dimensiones.
El escrito donde se retractan lo explica:

An in-house data reduction program introduced a change in sign for anomalous differences. This program, which was not part of a conventional data processing package, converted the anomalous pairs (I+ and I-) to (F- and F+), thereby introducing a sign change.
La expresión de Chang también fue expresiva. “I’ve been devastated”. Sus artículos siguen en las páginas de Science pero encabezados por un rótulo en rojo: This article has been retracted.
La comunidad científica ha aceptado que se trata de un error y no de un fraude pero la credibilidad del Chang Lab queda en entredicho por falta de cuidado, suficiente para quitar el sueño durante mucho tiempo y una muestra de que hay que controlar mejor las cosas.

Claro que se trataba de un programa no comercial, hecho por ellos mismos. Pero no, no crean que estamos libres de problemas con los programas comerciales. Por ejemplo, todos usamos hojas de cálculo y algunas funciones estadísticas de Excel tuvieron problemas por el diseño de los algoritmos. Microsoft informó en su momento de había “mejorado” algunos algoritmos en el tránsito de Excel 2002 a 2003 pero tal vez no resolvieron demasiado bien las cosas. Les envío a una crítica sobre el generador de números aleatorios. Yo no he sido capaz de reproducir el problema por lo que supongo que esté resuelto pero, como la duda siempre queda, pueden echar un vistazo a algunas publicaciones del European Spreadsheet Risks Interest Group que ayudan a diseñar y tomar medidas preventivas. O si quieren preocuparse de verdad miren los enlaces al final de esta página empezando, por ejemplo, por este. ¿Alguien sabe si en Open Office hay estos problemas?
Algunos estarán pensando en otras aplicaciones como SPSS, Statistica o R. No se preocupen, seguro que funcionan bien. O no. Prueben siempre que puedan con un par de aplicaciones diferentes y confirmen que los resultados son similares, especialmente si trabajan con grandes matrices, grandes números o millones de datos, que es en los extremos donde los algoritmos se la juegan.

Una de las posibles conclusiones de esta historia es que los trabajos científicos se construyen y apoyan sobre un montón de aplicaciones que suponemos funcionan bien. Esta suposición abarca desde los aparatos de medida hasta el software de cálculo. Por ejemplo, en nuestro caso usamos datos tomados por un satélite. Eso significa asumir que te fías de los ingenieros que lo diseñaron, de los procesos de calibración, de que el software de pretratamiento está bien hecho y bien aplicado... Luego, nuestra cadena de tratamiento de los datos brutos consta de 11 pasos que se realizan con programas hechos por nosotros que, a su vez, usan rutinas programadas por otros. Cada paso arranca sobre los resultados del programa anterior con lo que si existen errores, estos van a propagarse a lo largo de la cadena de forma frecuentemente imprevisible e indetectable.

Lamentablemente, no es posible comprobar fehacientemente el buen funcionamiento de todas las piezas del rompecabezas pero sí es necesario invertir tiempo en hacer pruebas básicas y evitar los errores que en inglés llaman blunders, traducible por patochadas o, en castellano castizo, cagadas. Como Geoffrey Chang.
Para terminar de forma constructiva, voy a recomendarles una aplicación estadística que funciona en MS Excel y que es magnífica, gratuita e, incluso, probablemente bien hecha: Poptools.

Secuelas de MacGyver

Cuando no hay material, hay recursos.

Fotografiado en un pueblo de Zamora. Vista de detalle abajo, obsérvese el puntal contra el muro para evitar el cimbreo y la barroca construcción de la escalera de color claro.

[pulsar para ampliar la imagen]
Grab this Widget ~ Blogger Accessories
 
º