El artículo de Antonio Córdoba Barba, catedrático de Análisis Matemático de la Universidad Autónoma de Madrid, trataba de explicar de una forma sencilla el hallazgo de la demostración a la solución a la conjetura de Johannes Kepler [PDF] (¿Cómo empaquetar del modo más eficaz esferas del mismo tamaño, es decir, cómo hacer un montón de naranjas o de balas de cañón de manera que ocupen el mínimo espacio?). Por lo visto, esta demostración había llevado de cráneo a distintos matemáticos e intrigado, primero, comencéa leerlo, pero lentamente la intriga comenzó a tornarse frustración puesto que aquello era mucho más complicado de entender de lo que parecía. Un tanto decepcionado por mi escasa visión matemática, me dispuse a abandonar el texto cuando en un último vistazo me encontré con esto:
El artículo de Hales [El autor que ha demostrado la conjetura de Kepler] consta de unas 120 páginas de matemáticas convencionales. Pero depende de un programa informático que analiza cerca de 5.000 casos residuales, para los que hay que optimizar funciones de más de 200 variables. Después de varios años de trabajo la comisión de expertos a quienes Annals [of Mathematics] encargó la revisión del artículo ha tirado la toalla, sintiéndose incapaz de escudriñar todos los detalles en un tiempo razonable; tarea que han comparado con la de cotejar, uno por uno, la veracidad de todos los datos del listín telefónico de Nueva York.
Este párrafo me invitó a seguir leyendo, ya que sugería un punto de vista muy interesante sobre la forma en la que los artículos en las revistas científicas son evaluados, además de criticar la situación actual en cuanto a su aprobación:
Empero, el comité ha llevado a cabo el número adecuado de comprobaciones para poder sostener su fe en la corrección de la prueba con, según dicen, un 99% de probabilidad. Pero, ¿es eso suficiente?
Una demostración matemática es una cadena de razonamientos, a veces muy larga, que nos llevan desde una hipótesis de partida hasta una tesis de llegada y que es susceptible de ser engarzada por todo aquel que posea el tiempo y el entrenamiento adecuados. Pero éste no es el caso de la prueba de Hales. El dilema de Annals es tremendo y su solución ecléctica quizás no satisfaga a muchos: publica la parte que se ajusta al arquetipo tradicional, pero añade un comentario editorial advirtiendo de que la prueba depende de un programa que aparecerá en otra revista especializada en computación. Los editores señalan que estamos ante un caso de aproximación de las matemáticas a la práctica de las ciencias experimentales, por cuanto la verificación de la parte informática hay que hacerla con los criterios con los que se valida un experimento, pero no con los tradicionales de las matemáticas.
Annals es una centenaria revista bimensual editada en Princeton (EE UU) conjuntamente por la Universidad y el Instituto de Estudio Avanzado. Los requisitos para aparecer en sus páginas son muy estrictos: ha de tratarse de un resultado relevante demostrado con técnicas originales. No es de extrañar que publicar en Annals sea objeto del deseo para los matemáticos y que traten de lograrlo con sus resultados mejores.
La demora entre la llegada y la publicación de un artículo oscila en torno a los dos años, pero ése es un dato que Annals comparte con otras revistas, que no son ya tanto un instrumento de comunicación, puesto que los resultados circulan antes por la red, sino una garantía de calidad. Ésa es ahora la principal razón de ser de las mejores revistas. Pero éstas son una minoría; la mayoría tienen criterios mucho más relajados: tanto, que sus publicaciones son con bastante frecuencia un mero y prescindible ruido.
A diferencia de la demostración del Teorema de Fermat, que ha requerido el fecundo ingenio matemático contemporáneo, creo que la prueba de la conjetura de Kepler, sin desmerecer con ello el trabajo de Hales, hubiera podido llevarse a cabo hace siglos de haber contado con los medios de cálculo que tenemos ahora a nuestro alcance. ¿Significa esta demostración que estamos en el umbral de una nueva era en la que las máquinas se encargarán de probar los teoremas? ¿Son los matemáticos una especie en extinción?
Sinceramente creo que la respuesta es un rotundo no, aunque sea un lugar común afirmar que el ordenador es un instrumento valiosísimo, una ayuda casi imprescindible, en la investigación actual. Pero es posible, y yo diría que muy deseable, que las máquinas se encarguen en el futuro de tantos desarrollos rutinarios y tantas demostraciones clónicas que mantienen ocupados a demasiados matemáticos quienes, incansables, publican obviedad tras obviedad. Llenando sin cesar, con mutuas referencias, el registro de esa grotesca casa de citas que tiene su sede en Filadelfia. Liberados por las máquinas, podrían estos artistas, siguiendo el buen ejemplo de Wiles y Hales, dedicar sus esfuerzos a resolver problemas realmente difíciles e interesantes que tengan luego cabida en Annals of Mathematics.
Ya escribirmos un texto sobre la situación de crisis en la que se encuentran las publicaciones científicas, sin embargo las afirmaciones de Antonio Córdoba, aunque de una forma tangencial, me recordaban a otro escándalo que había salpicado a la revista Science recientemente: Caso Hwang.
Hwang Woo-suk, investigador coreano sobre ingeniería genética, presentó y publicó en la revista Science, junto con otros firmantes, una serie de estudios sobre clonación completamente revolucionarios y que venían a demostrar que su técnica era viable para la clonación de embriones. Posteriormente se ha demostrado que Hwang falseó los datos y trucó las fotografías, por ello se puso sobre la picota el sistema de control de la calidad de la revista Science, puesto cómo había consentido que tales textos se publicasen sin percatarse de la falsedad de los resultados.
Como bien sabemos los documentalistas, el envío de un artículo a una revista no asegura su publicación en ella, ya que debe de pasar previamente un control de calidad denominado peer review. De esta forma, los editores de la publicación envían los textos a dos o tres expertos en la materia para verificar si el artículo debe ser o no publicado. Estos revisores, o en su término anglosajón referees, determinan si los autores deben de aportar nuevos datos para que sus conclusiones se sostengan o incluir alternativas que no habían abordado en ellas. Sin embargo, los referees no buscan la falsificación per se, ya que existe cierta confianza en la honestidad en el autor no falsee de forma completamente intencional los datos como sucedió en este caso. Obviamente, los revisores no tienen acceso a los ordenadores de los investigadores y desconocen los datos brutos, por lo que su tarea de búsqueda de falsificación en los artículos es difícil.
Es un tema complejo… ¿como comprobar toda la información que reciben las revistas? demostrandolo ellos mismos es la única manera, ya que si se fian en lo que envian los autores puede haber hasta fotografías falsificadas… esto supone un gasto tremendo de recursos y una revista no es ningún comité de verificación sino de divulgación.
Para mí el pedazo de texto clave es éste:
Pero si no pueden garantizar la calidad en algunos casos, ¿qué queda de ellas?
Se duda de la veracidad de la información que ofrecen los blogs frente a la que ofrecen las revistas científicas, ya que estas comprueban los datos. Pero si éstas no lo hacen ¿cuál es la diferencia?