web analytics

Archivo de abril, 2020

Cinco puntos definen una cónica

Seguimos con nuestro repaso por el mundo de las cónicas y hoy hablaremos de otro de los hitos en su estudio, el Teorema de los cinco puntos, que afirma que cinco puntos de un plano son suficientes para construir una cónica. Afinando más, 3 de esos puntos no pueden ser colineales, porque entonces el resultado sería una cónica degenerada y podría no ser única.

La razón para este resultado es muy simple si consideramos la ecuación general de una cónica:

Ax2 + B xy + Cy2 + D x + Ey + F = 0

entonces, las coordenadas (xi,yi) de los cinco puntos, i = 1, …, 5, deben cumplir la ecuación anterior. Por lo tanto, obtenemos un sistema de cinco ecuaciones con seis incógintas, pero como el sistema es homogéneo, podemos considerar F = 1, y el resultado saldrá de manera inmediata.

La demostración es todavía más evidente cuando se considera la geometría proyectiva, porque en el plano proyectivo RP2  (que se obtiene de R3 identificando todos los puntos de cada recta que pasa por el origen) cada cónica está definida por exactamente cinco números.

Otra cuestión interesante, y que pone de manifiesto esa dualidad entre puntos y rectas, es que se pueden considerar construcciones de cónicas partiendo de m puntos y n rectas, con m+n = 5, donde m y n varían de 0 a 5. En el caso de las rectas, la noción de ser un punto de la cónica se traduce en ser recta tangente a la cónica.

Una de las técnicas modernas más interesantes para estudiar las propiedades de las cónicas consiste en calcular lo que se llama su espacio de moduli. Ya que la ecuación de una cónica incluye 6 coeficientes, A, B, C, D, E, F, y poder eliminar uno, por ejemplo, F, y obtener coordenadas homogéneas (A/F, B/F, C/F, D/F, E/F) (supononiendo, claro está que F no es 0), vemos que existe una correspondencia biyectiva entre cónicas en un plano y puntos del espacio proyectivo RP5 (obtenido de R6 identificando los puntos de las rectas pasando por el origen). Así que RP5 es el espacio de moduli de las cónicas planas. Esto implica que cualquier problema de contar incidencias o tangencias para las cónicas se puede traducir en un problema de intersecciones en el espacio proyectivo RP5 . De hecho, este es el principio en la llamada geometría enumerativa, que tiene en cuenta problemas enumerativos a los que tan aficionados eran los griegos, y es hoy en día una rama muy activa de la geometría algebraica.

Cónica tangente a cinco dadas

Así, podíamos pensar no solo en cuantas cónicas pasan por unos puntos y son tangentes a unas rectas dadas, sino también si son tangentes a unas cónicas prefijadas. Esto enlaza con el famoso problema planteado en 1848 por Jakob Steiner, de la Universidad de Berlín: Dadas cinco cónicas en el plano, ¿cuántas cónicas son tangentes a todas ellas? El propio Steiner dio una respuesta, 7776 = 65, pero estaba equivocado. La respuesta correcta es 3264, como probaron Ernest de Jonquières en 1859, y Chasles en 1864 (aunque el primero no publicó el resultado por respeto a la enorme reputación de Steiner). La geometría enumerativa y la teoría de intersección, dan la respuesta. En el artículo “Enumerative Algebraic Geometry of Conics”, de Andrew Bashelor, Amy Ksir y Will Traves en Amer. Math. Monthly, 115 (8): 701–728, ) se da la respuesta completa a este problema.

Jacob Steiner

Debemos recordar que el llamado Teorema de los cinco puntos tiene una historia antigua. El resultado parece haber sido conocido desde hace mucho, pero no hemos sido capaces de encontrar un autor primero tanto del enunciado como de la prueba. En el artículo “Conic  sections  through  five  points  classical,  projective,  conformal”, de Eckhard Matthias Sigurd Hitzer se comenta como en 1844,  200 años después del Teorema de Pascal, el matemático alemán Hermann    Grassmann inventósi “Teoría de la extensión”,  usó el teorema del francés para encontrar una fórmula explícita de la cónica pasando por cinco puntos.

Hermann Grassmann

A medida que se han ido desarrollando las matemáticas, la geometría analítica, la geometría proyectiva, o la moderna geometría algebraica, ha ido proporcionando no solo nuevas demostraciones, sino generalizaciones y nuevos desarrollos matemáticos. Debemos recordar que hay pocos matemáticos relevantes desde los antiguos griegos hasta el sigo XX cuyo nombre no esté asociado de una manera u otra a las cónicas.

Más recientemente, el uso de programas como Geogebra, ha permitido que este y muchos otros resultados puedan ser abordados en el aula de una manera visual, sin que esto suponga ninguna pérdida de rigor matemático. Esto nos lleva a reivindicar la mayor inclusión de contenidos geométricos en los curricula académicos, acompañados de los programas tecnológicos que ayudan a explicarlos y trabajarlos conjuntamente con los alumnos.

Agustín Carrillo de Albornoz (Catedrático de Matemáticas y Secretario General de la FESPM y de la FISEM) y  Manuel de León (CSIC, Fundador del ICMAT, Real Academia de Ciencias, Real Academia Canaria de Ciencias, Real Academia Galega de Ciencias).

Etiquetas: , , , ,
Categorias: General

La extinción de los apellidos entre la aristocracia victoriana y el número R

En la segunda mitad del siglo XIX surgió una curiosa preocupación entre la aristocracia victoriana sobre la posible extinción de sus apellidos. Para entender el problema, comencemos recordando que esos apellidos se transmitían desde el padre (no madre) a los hijos, tanto varones como hembras, pero luego eran sólo los hijos varones quienes los volvían a transmitir.

Una representación esquemática de la transmisión de apellidos siguiendo la línea masculina. Sólo los hijos varones transmiten el apellido.

Esta preocupación tuvo eco entre los estadísticos de la época, como muestra el hecho de que sir Francis Galton (Birmingham, 1822 – Haslemere, 1911) propusiera en la revista The Educational Times and Journal of the College of Preceptors, el 1 de marzo de 1873, la siguiente cuestión:

“Question 4001 (Proposed by FRANCIS GALTON) — A large nation, of whom we will only concern ourselves with the adult males, N in number, and who each bear separate surnames, colonise a district. Their law of population is such that, in each generation, a0 per cent. of the adult males have no male children who reach adult life; a1 have one such male child; a2 have two; and so on, up to a5 who have five. Find (1) what proportion of the surnames will have become extinct after r generations; and (2) how many instances there will be of the same surname being held by m persons.

[The Proposer remarks that a general solution of this problem would be of much aid in certain rather important statistical enquiries, and that he finds it a laborious matter to work it out numerically, in even the simplest special cases, and to only a few generations. In reality, the generations would overlap and mix, but it is not necessary to suppose them otherwise than as occurring in successive steps.]”

Sir Francis Galton

El reverendo, y matemático, Henry William Watson (Marylebone, 1827 – Berkswell, 1903) aceptó el desafío y propuso una solución en la misma revista el 1 de agosto de 1873. A raíz del intercambio de ideas entre ellos, publicaron un artículo conjunto titulado “On the probability of the extinction of families” en 1875, en la revista Journal of the Royal Anthropological Institute of Great Britain and Ireland, con la solución a la cuestión de Francis Galton. Aunque los autores no eran conscientes de ello, con ese artículo Francis Galton y Henry William Watson habían redescubierto el trabajo previo del estadístico francés Irénée-Jules Bienaymé (París, 1796 – París, 1878) sobre la extinción de familias cerradas (aristocráticas, por ejemplo), motivo por el cual hoy el proceso es conocido como proceso de Galton-Watson, pero también como de Bienaymé-Galton-Watson.

Henry William Watson

Puede ser interesante construir el proceso en un contexto general para que el lector luego pueda identificar otras aplicaciones que no sean la original de Francis Galton a su problema.

Consideremos una población de individuos que cambia su configuración en instantes discretos de tiempo n = 0, 1, 2, … – denominados generaciones – y que, con independencia de la naturaleza de los individuos – personas, organismos, neutrones, genes – lo hace de la siguiente manera:

  • Cada individuo de la generación n produce un número aleatorio de nuevos individuos, denominados descendientes, en la generación n+1.
  • La secuencia Xa, Xb, … formada por los números de descendientes para cada individuo a, b, … está formada por variables aleatorias mutuamente independientes, que son también independientes de los números de descendientes de individuos en las generaciones previas.
  • Los números Xa, Xb, … también son idénticamente distribuidos con función de masa común F = {Pk: k=0,1, …}, donde Pk = P{ Xa = k }.

Es decir, la ley de probabilidad que determina el tamaño Xa de la descendencia de un individuo – el individuo a – de la generación n es la misma que la correspondiente ley para cualquier otro individuo de esa u otra generación, y su realización – por ejemplo, el individuo a de la generación n genera k descendientes – no depende del número de descendientes generados por el resto de los individuos de la generación n a la que pertenece o de las generaciones previas. Siguiendo esta descripción, el estado Zn del proceso de Galton-Watson en el instante n es el número de individuos en la generación n.

En el problema original de Francis Galton,  Zn representa el número de apellidos iguales al del antecesor inicial presentes en la población en la generación n por herencia a lo largo de la línea masculina. En esta contabilidad sólo se contabilizan los apellidos de los varones, no de las hembras, dado que éstas no transmitirán su apellido en generaciones futuras. El hecho de asumir un único antecesor inicial está vinculado a suponer Z0  = 1.

Comenzando desde Z0 = 1, el estado del proceso en la generación n+1 se obtiene desde la recursión

Zn+1 = X1(n+1) + … + XZn(n+1),

 que expresa el número de descendientes en la generación n+1 desde la contribución (a esa generación n+1) del i-ésimo individuo – es decir, Xi(n+1) – de la generación n. El número de descendientes en la generación n es una variable aleatoria Zn que podría tomar el valor 0, en cuyo caso Zn+1 = 0 y, como consecuencia, Zm = 0 en cualquier generación posterior m = n, n+1, … Es importante destacar que la independencia de las variables aleatorias Xi(n) garantiza que la sucesión {Zn: n=0,1,…} verifica la propiedad Markoviana.

No todas las elecciones de la distribución de descendencia F conducen a un proceso de Galton-Watson interesante. Por ejemplo, si F está concentrada sobre un único punto (es decir, Pk = 1 para un cierto número k), entonces el proceso es determinista y Zn es el producto de k consigo mismo n veces.

El proceso de Galton-Watson determinista, cuando el número de hijos varones es siempre igual a 1.No olvidemos que las hijas no influyen en la herencia del apellido.

Otro proceso poco interesante se tiene cuando F está concentrada sobre los puntos k = 0 y 1, de modo que P0, P1 > 0 y P0 + P1 = 1. En este caso, la población permanece en el estado inicial Z0 = 1 durante un cierto número n’ de generaciones – con probabilidad igual al producto de P1 consigo mismo n’ veces – y luego salta al estado 0 en la siguiente generación n’+1 – con probabilidad P0 –, donde permanece indefinidamente. El estado 0 es, entonces, absorbente y refleja la extinción del proceso en la generación n’+1.

 

Supervivencia de un apellido durante n’ = 3 generaciones (sin incluir la inicial) y extinción en la 4ª generación.

Para evitar estos casos particulares, el análisis del proceso de Galton-Watson está habitualmente asociado a la hipótesis de que la distribución de descendencia no está concentrada sobre un único punto (por ello, Pk < 1 para todo k) y asigna probabilidad estrictamente positiva (Pk > 0), al menos, a algún k > 1. En tal caso, un sencillo cálculo conduce a una expresión para el tamaño medio de la población en la generación n en términos de

E[Zn] = M·…·M,

es decir, el producto del tamaño medio M de la descendencia de un individuo consigo mismo n veces.

El valor de M tiene propiedades interesantes y permite clasificar los procesos de Galton-Watson como supercríticos (M > 1), críticos (M = 1) y subcríticos (M < 1), de manera que la extinción del proceso se observa con seguridad en los casos crítico y subcrítico, mientras que el proceso puede no extinguirse en el caso supercrítico con probabilidad positiva.

Estos últimos comentarios nos llevan a ver una clara similitud entre el tamaño medio M de la descendencia de un individuo en el proceso de Galton-Watson y el factor reproductivo básico R0 de los modelos epidémicos, como puede observar el lector comparando esta entrada con otras entradas recientes sobre las matemáticas del coronavirus, y las matemáticas contra la malaria y el modelo SIR. Esa similitud no es casual, dado que el proceso de Galton-Watson tiene aplicaciones a la trasmisión de enfermedades infecciosas en sus fases iniciales de propagación.

Entre las aplicaciones modernas se encuentra la proliferación de neutrones libres en una reacción de fisión nuclear, desde los trabajos de Leo Szilard a finales de 1930. Pero no hay que olvidar la genética, sin duda la más cercana al trabajo de Francis Galton y Henry William Watson que nos permite explicar por qué un reducido número de individuos, antepasados de Homo sapiens, tienen ahora descendientes sobrevivientes de la línea masculina reflejados en un número bastante pequeño de haplogrupos distintivos de ADN del cromosoma Y humano.

Mario Castro Ponce (Universidad Pontificia Comillas), Manuel de León (Instituto de Ciencias Matemáticas CSIC, Real Academia de Ciencias) y Antonio Gómez Corral (Universidad Complutense de Madrid)

Etiquetas: , , ,
Categorias: Covid-19

El Hexagrammum Mysticum

El estudio de las cónicas, que se extiende a más de dos milenios, ofrece episodios matemáticos de una gran belleza, que en algunos casos se acerca al misticismo. Uno de los teoremas más excitantes en ese sentido es el llamado Teorema de Pascal, denominado a veces el Teorema del Hexagrama Místico.

Blaise Pascal

 

El Teorema de Pascal dice lo siguiente:

Si un hexágono arbitrario ABCDEF se encuentra inscrito en una cónica, y se prolongan los pares de lados opuestos hasta que se cruzan, los tres puntos en los que se intersecan se encontrarán ubicados sobre una línea recta, denominada la recta de Pascal de esta configuración (veáse Figura 1).

 

Figura 1

 

Esta figura ilustra el resultado en el caso de la elipse, pero el teorema vale para cualquier tipo de cónicas, incluyendo las degeneradas así como hexágonos que se puedan intersecar.

El teorema fue enunciado por Blaise Pascal cuanto contaba dieciséis años, un prodigio de precocidad, pero no se ha conservado ninguna prueba por su parte. Pascal trabajaba en un tratado sobre las cónicas, Conicorum Opus Completum que se perdió. Si se conserva lo que titula Essay pour les coniques, una especie de “poster” que envió en 1654 a la Academia de Ciencias de París.

El Teorema de Pascal es de clara naturaleza proyectiva, y de hecho, para entenderlo en toda su generalidad, debemos considerar el caso de las rectas paralelas que se juntan en el punto del infinito.

Este teorema es además una generalización del teorema de Pappus, de hecho, este último correspondería al caso de una cónica degenerada formada por dos rectas. El Teorema de Papus establece lo siguiente:

Si en un par de rectas se escogen tres puntos al azar en cada una y se unen dos a dos, las intersecciones de las rectas que los unen estarán en una línea recta.

El siguiente gráfico ilustra este resultado:

 

Una de las curiosidades del Teorema de Pascal es que dados 6 puntos, existen 60 maneras diferentes de construir exágono, de donde deducimos que dada una cónica existirán 60 rectas diferentes de Pascal. La cuenta de 60 se obtiene con un sencillo cálculo sobre el número de ciclos de Hamilton de un grafo completo de 6 vértices.

Aunque no se cuenta con la prueba que Descartes pudo haber diseñado, hoy en día existen numerosas pruebas de su teorema, con muy diversas técnicas. Como decíamos antes, es un resultado que encaja perfectamente en la geometría proyectiva, y de hecho su dual proyectivo es el teorema de Brianchon, que afirma:

Sea ABCDEF un hexágono formado por seis rectas tangentes de una cónica. Entonces, los segmentos AD, BE, CF se intersecan en un solo punto P.

El teorema se ilustra con la siguiente figura:

Uno de los resultados más interesantes sobre las cónicas es que cualquiera de ellas está determinada conociendo cinco de sus puntos. Existe una relación entre este teorema y el de Pascal. En efecto, dados cinco puntos, el teorema de Pascal permite construir de manera efectiva la cónica correspondiente.

En este enlace el lector puede encontrar una construcción del Teorema de Pascal usando Geogebra.

Agustín Carrillo de Albornoz (Catedrático de Matemáticas y Secretario General de la FESPM y de la FISEM) y  Manuel de León (CSIC, Fundador del ICMAT, Real Academia de Ciencias, Real Academia Canaria de Ciencias, Real Academia Galega de Ciencias).

Etiquetas: , , ,
Categorias: General

Nicanor Parra, matemático, físico y antipoeta

Qué es el hombre

se pregunta Pascal:

Una potencia de exponente cero.

Nada

si se compara con el todo

Todo

si se compara con la nada:

Nacimiento más muerte:

Ruido multiplicado por silencio:

Medio aritmético entre el todo y la nada.

Nicanor Parra: “Pensamientos”

 

Leyendo el extraordinario libro de Leila Guerriero, “Plano americano”, un panorama de la vida cultural en Latinoamerica a través de 26 perfiles biográficos, me encuentro de nuevo con un poeta fuera de lo común, Nicanor Parra, el definido como antipoeta pero cuya profesión durante muchos años fue la de profesor de matemáticas y física.

Nicanor Segundo Parra Sandoval (ese era su nombre completo), nació en San Fabián de Alico, a 400 kilómetros al sur de Santiago de Chile, el 5 de septiembre de 1914, y falleció en La Reina, Santiago, el 23 de enero de 2018, a la edad de 103 años. Tras sus estudio en la escuela, en 1933 ingresó en el Instituto Pedagógico de la Universidad de Chile, para estudiar Matemáticas y Física, aunque siguió con sus aficiones literarias. En 1937 se graduó como profesor de matemáticas de la Universidad de Chile, y comenzó a ejercer como docente tanto en el campo de las matemáticas como en el de la física.

Pero no se limitó a la enseñanza. Consiguió una beca para cursar un postgrado en mecánica en la Universidad de Brown en Estados Unidos en 1943, y al regresar, se incorporó como profesor titular de Mecánica Racional en la Universidad de Chile. En 1948, fue nombrado director de la Escuela de Ingeniería, ocupando el cargo durante veinte años. Es notable que dedicara a la enseñanza unos 51 años de su vida, ya que se jubiló en 1996. En 1949 consiguió otra beca del British Council, para estudiar cosmología en Oxford con el físico Edward Arthur Milne. El propósito era realizar una tesis doctoral, pero nunca la terminó, la poesía se cruzó en su camino.

Nicanor Parra en 1935

Aunque Parra es universalmente conocido por su poesía (o antipoesía que diría el mismo), su formación matemática y física se trasluce en su obra, en ese afán de volver la poesía a la realidad de la vida y a la verdad, tal y como ocurre con las matemáticas. En esta entrevista dice al respecto de la paradoja de Aquiles y la tortuga:

“Estoy trabajando a fondo en esto, de nuevo, y debí haberlo hecho mucho antes, porque yo fui profesor de mecánica teórica, y la mecánica no es otra cosa que la teoría del movimiento. Yo partí siempre de la base de que el movimiento existe. Según Zenón, que es el autor de la paradoja, ésta nos lleva necesariamente a negar la existencia del movimiento. O sea, a aceptar que el mundo es ilusorio. Son muy graves las consecuencias.”

También es probable que la poesía influyese en su manera de dar sus clases de matemáticas y física. Leopoldo Soto, investigador en la Comisión Chilena de Energía Nuclear, y que fue presidente de la Sociedad Chilena de Física, asistió a una de ellas y comentó: “Usaba mucho el número Pi y escribía especies de ecuaciones que si uno las leía literalmente era un verso. La pizarra quedaba como un objeto extraordinario al final de la clase”.

Comienza su primera obra, “Cancionero sin nombre”, muy influenciado por Lorca, con estos versos: “Déjeme pasar, señora/que voy a comerme un ángel”. Sobre esos comienzos diría después Parra:

“Se debió esencialmente a una falta de conciencia del oficio. No tenía la menor idea de lo que se esperaba de una poesía. Creí que se aprendía como las matemáticas. Era, entonces, un poeta totalmente espontáneo. Además, la voz de García Lorca era hipnótica: una especie de encantador de serpientes, cuyo ritmo y cuya música me resultaban avasalladores y muy fáciles de imitar.”

Un artefacto de Nicanor Parra

Dejamos para el final sus artefactos, especie de postales conteniendo un dibujo y una frase, a veces lapidaria, nunca indiferentes. Esta es sobre el efecto mariposa:

Les dejamos con esta canción de Osvaldo Rodríguez, “Defensa de Violeta Parra”, que pone música al poema que Nicanos Parra le dedicó a su hermana, la gran cantora Violeta Parra.

Imagen de previsualización de YouTube

_

Manuel de León (CSIC, Fundador del ICMAT, Real Academia de Ciencias, Real Academia Canaria de Ciencias, Real Academia Galega de Ciencias).

Etiquetas: ,
Categorias: General

Sopa de letras: Más allá del modelo SIR

En entradas anteriores hemos hablado del modelo SIR y de su exitosa trayectoria desde sus orígenes. Por eso, no es de extrañar que un siglo después siga siendo el modelo de referencia en Epidemiología Matemática. No obstante, siguiendo la máxima pragmática, un modelo es tan bueno como su capacidad para ser útil. En este sentido, algunas objeciones al modelo SIR han impulsado el desarrollo de variantes que describiremos en este artículo y aproximaciones alternativas, como las variantes estocásticas o los modelos en “red” (epidemic networks) que reservamos para futuras entradas en este blog.

 


Imagen por microscopio electrónico del SARS-CoV-2 (en naranja). Fuente: National Institute of Allergy and Infectious Diseases

La Biología no actúa de manera instantánea: el modelo SEIR

La primera objeción más frecuente es que el término de la derecha de la ecuación para la evolución de los susceptibles

implica indirectamente que un infectado se vuelve infeccioso instantáneamente. Evidentemente, el virus infecta progresivamente al sujeto, aunque los síntomas sólo se aprecian unos días después de la infección. Como discutimos en El aspecto del enemigo, uno de los desafíos del SARS-CoV-2 es el tiempo en el que un infectado es asintomático, pero puede infectar a otros susceptibles. El modelo SEIR incluye un estado intermedio, E (abreviatura de “Expuestos”), que trata de simular ese periodo de latencia. No siempre los individuos etiquetados en el estado E transmiten la enfermedad; por ejemplo, en el caso de la tuberculosis, se refiere a un estado anterior a la infección activa y durante el cual los bacilos – de la especie Mycobacterium tuberculosis – están en fase latente, de manera que el individuo está infectado pero no puede transmitir la tuberculosis a otros, pero porta bacilos latentes en su organismo que, tarde o temprano, progresarán hacia una infección activa.

Figura 1: Esquema del modelo SEIR. El estado E representa a los sujetos “expuestos” a la infección pero que aún no presentan síntomas.

 

Este modelo introduce mucha flexibilidad al incorporar dos nuevos parámetros, el tiempo de latencia, tL, y la probabilidad de que un sujeto asintomático sea infeccioso, e. Es el más utilizado estos días para hacer predicciones cuantitativas de la epidemia de coronavirus, algunas destacadas en prensa, como aquellas de los grupos de Imperial College, Oxford, o las iniciativas colectivas CEMAT o Healthdata.

Si recuerdan de nuestras entradas anteriores, definimos el ritmo (o factor) reproductivo básico, R0, como el número medio de contagios propagados por cada persona contagiada. Para el modelo SIR este parámetro tomaba el valor

 

Bajo la luz del modelo SEIR, este parámetro toma la forma

Es decir, el modelo SIR subestima R0. Eso son malas noticias, aunque tiene bastante sentido: los sujetos asintomáticos siguen propagando la infección, aunque no sean conscientes de ello, con probabilidad e, y su impacto aumenta con el tiempo medio de latencia, tL.

¿Es el confinamiento o la vacunación la solución a nuestros problemas?

La siguiente pregunta que podemos hacernos concierne la eficacia (a nivel epidemiológico, no a nivel biológico) de vacunar a la población. Esto se puede hacer antes del brote de la epidemia, en cuyo caso, nuestro modelo sería idéntico a un modelo SIR o SEIR, salvo por el hecho de que la población susceptible sería sólo una fracción de la población total; es decir, es necesario incorporar un nuevo estado V para aquellos individuos sobre los que la vacuna induce algún grado de protección. Otra interpretación de este tipo de intervención es el confinamiento que estamos sufriendo estos días. En este escenario, los pacientes diagnosticados son hospitalizados y aislados para evitar que contagien a otros susceptibles. En tal caso, el modelo suele denominarse SITR (Figura 2).

Figura 2: Esquema del modelo SITR. Una fracción de los pacientes infectados es “tratada” (es decir, tratados clínicamente, aislados, vacunados) o confinada de tal manera que se evita que una proporción de infectados infecte a otros pacientes.

El estado T también puede entenderse como un modelo con cuarentena (Q, del inglés quarantine) en el que los pacientes infectados diagnosticados son aislados. Este modelo también es muy versátil porque se pueden contemplar situaciones en las que después del aislamiento y durante un tiempo tA,  una fracción δ sigue siendo infecciosa. En este caso, R0 tomaría el valor

donde γ es inversamente proporcional al tiempo medio que se tarda en detectar a un nuevo infectado y ponerle en aislamiento. De nuevo, el modelo arroja mucha información sobre la importancia de realizar tests a la población (a través del parámetro γ) y de ser cautelosos con las altas hospitalarias hasta garantizar que los pacientes no son infecciosos (a través de tA).

Durante la epidemia del SARS-CoV-1 (el predecesor del Covid-19), algunos grupos utilizaron un modelo generalizado de éste (¡que casi contiene todas las letras del alfabeto!) llamado SEQIJR (Figura 3), que permite distinguir entre estar en cuarentena (Q) y estar aislado (J).

Figura 3: El modelo SEQIJR, un modelo con expuestos (E), pacientes en cuarentena (Q) y aislados (J).

No obstante, como dice el saber popular, a veces menos es más y los modelos complejos (con muchas letras en su nombre) traen consigo una significativa incertidumbre en sus parámetros que puede limitar su utilidad predictiva, por lo que no siempre son “mejores” desde un punto de vista práctico.

¿Qué pasa si no se desarrolla inmunidad perfecta?

Nuestra última sopa de letras trata de responder a una pregunta que está en el aire estos días: ¿qué pasará si después de haber estado infectado, se puede recaer de nuevo?

Para responder a esta pregunta, se ha estudiado una familia de modelos conocidos genéricamente como modelos “endémicos”, todos ellos variantes del modelo SIRS.

Figura 4: Modelo SIRS. Los recuperados pueden perder la inmunidad y volver a ser susceptible perpetuando los ciclos de epidemia/control. La gripe estacional es un ejemplo de infección “endémica”.

 

En este caso, existe un equilibrio “endémico” en el que siempre habrá una fracción de la población infectada que puede dar lugar a ciclos de epidemia que se perpetúan periódicamente. La gripe estacional es un ejemplo de enfermedad endémica que, gracias a la vacunación masiva de sujetos susceptibles de alto riesgo, se mantiene bajo cierto control. Desgraciadamente, la gripe se cobra una factura de miles de fallecidos en España todos los años – y cerca del medio millón en todo el mundo –, por lo que no debemos minimizar el impacto de esta enfermedad tan común y generalizada.

Todos estos modelos comparten un aspecto común: todos predicen un crecimiento exponencial y un aplanamiento de la curva. No obstante, no dejan de ser modelos simplificados y pequeños cambios en la estimación de los parámetros, o una mala calidad de los datos hace muy complicado predecir el resultado final de la epidemia. No obstante, esperamos haber convencido al lector de la utilidad y versatilidad de las matemáticas para entender las epidemias y los mecanismos de intervención más eficaces.  También confiamos en que, cuando las circunstancias lo permitan, el lector pueda impresionar a amigos y parientes con esta fascinante sopa de letras que les hemos traído hoy.

Mario Castro Ponce (Universidad Pontificia Comillas), Manuel de León (Instituto de Ciencias Matemáticas CSIC, Real Academia de Ciencias) y Antonio Gómez Corral (Universidad Complutense de Madrid)

Etiquetas: , , ,
Categorias: Covid-19

Adiós a John Horton Conway, el matemático que jugaba

“.. Consigues números surrealistas jugando. Solía sentirme culpable en Cambridge de haber pasado todo el día jugando, mientras se suponía que estaba haciendo matemáticas. Entonces, cuando descubrí números surrealistas, me di cuenta de que jugar a juegos ES matemáticas.”

John H. Conway

 

El pasado 11 de abril conocimos el fallecimiento en Princeton por coronavirus de uno de los matemáticos más queridos y carismáticos de nuestra comunidad internacional. En un artículo de Siobhan Roberts, en The Guardian, el 23 de julio de 2015, en se dice de él que era una mezcla de Arquímedes, Mick Jagger, Salvador Dalí y Richard Feynman.

 

John Horton Conway

John Horton Conway nació en Liverpool, el  26 de diciembre de 1937, estudió matemáticas en la Universidad de Cambridge, donde realizó su tesis doctoral bajo la dirección de Harold Davenport, un conocido especalista en teoría de números. Tras us doctorado en 1964, Conway fue profesor en Cambridge hasta 1986, cuando se trasladó a Estados Unidos para ocupar la Cátedra  John von Neumann de Matemáticas en la Universidad de Princeton.

Conway ha realizado trabajos pioneros en muchas áreas: teoría de grupos, teoría de nudos, teoría de números, teoría de juegos y teoría de códigos.

Uno de sus logros más populares es el llamado “Juego de la Vida”, que es uno de los primeros desarrollos e los autómatas celulares. Aunque ahora se puede jugar con el ordenador, Conway lo inventó con lapiz y papel. El juego parte de una disposición inicial en una cuadrícula infinita (cada cuadrado es una célula), de manera que cada célula tiene 8 vecinas. Las Las reglas son muy sencillas, pero el juego es capaz de simular una máquina de Turing, y por lo tanto efectuar cualquier cálculo que esta pudiera hacer. Conway lo inventó en 1970 y se hizo popular (viral que diríamos ahora), al publicarlo Martin Gardner en su sección de Scientific American.

Imagen del Juego de la Vida del blog http://www.golhood.com/2015/08/20/game-of-life-el-juego-de-la-vida/

Pero el Juego de la Vida no puede opacar las enormes contribuciones de Conway a las matemáticas en tantos ámbitos. Por citar solo algunas, es el promotor del ATLAS of Finite Groups, un listado de grupos finitos en el que colaboró con Robert Turner Curtis, Simon Phillips Norton, Richard Alan Parker y Robert Arnott Wilson. El libro, de gran tamaño, se publicó en 1985 y se reimprimió en 2003. Contiene también sus resultados, fundamentales para la clasificación de los grupos simples finitos.  Pero Conway es además uno de los matemáticos detrás de lo que se conoce como “monstrous moonshine”, una relación totalmente inesperada entre la teoría de grupos y la teoría de números.  describe una inesperada relación descubierta en los años 1970 entre las ramas de teoría de grupos y teoría de números (en concreto, las formas modulares). A Conway se le debe ese nombre.

No podemos olvidar su contribución a la teoría de nudos, con su propio polinomio de Conway para clasificarlos; o los números surreales (que merecerían una entrada propia); sus aportaciones en análisis o física teórica. Realmente sus contribuciones son muy abundantes, y como muestra sus alrededor de 180 publicaciones en MathSciNet, con 6995 citas por 5125 autores diferentes.

Dibujo que usó para ilustrar su perfil en MathSciNet

Tuvo 21 estudiantes de doctorado, algunos muy relevantes, como Richard Ewen Borcherds, ganador de la medalla Fields en 1998. Conway mismo recibió muchos premios a lo largo de su carrera científica, como el premio Berwick , 1971; el premio Pólya, 1987; o el premio Leroy P. Steele, en 2000.

Conway fue un niño y adolescente muy introvertido. Con cuatro años, su madre decía que era capaz de recitar las potencias de dos. Su tarnsformación en un personaje popular y carismático está perfectamente descrito en el artículo citado de The Guardian.

Como apunte personal, decir que invitamos a John Conway a impartir una conferencia plenaria en el primer congreso de la entonces recién constituida Real Sociedad Matemática Española, conferencia que se impartió en la UNED y fue un auténtico éxito. Ahora es, desgraciadamente, una víctioma más del Covid-19. Descanse en Paz.

_

Manuel de León (CSIC, Fundador del ICMAT, Real Academia de Ciencias, Real Academia Canaria de Ciencias, Real Academia Galega de Ciencias).

Etiquetas: , , , ,
Categorias: General

La conjetura abc de nuevo en cuestión

No es la primera vez que escribimos sobre la llamada conjetura abc, y me temo que no será la última. La prueba de la misma no está todavía admitida por la comunidad, pero el autor de la supuesta prueba, el matemático japonés Shinichi Mochizuki, ha dado una vuelta de tuerca al tema, que incide además de pleno en la ética de las publicaciones matemáticas.

 

Recordemos lo que dice esta famosa conjetura. Enunciada por Joseph Oesterlé y David Masser en 1985, se refiere a números enteros positivos a, b y c, primos relativos (es decir, que no tienen más divisores comunes que el 1), que cumplen la ecuación a + b= c (y de ahí el nombre de la conjetura). La conjetura dice lo siguiente:

Para cada número real positivo ε, existen un número finito de triples (a, b, c) de enteros positivos y primos relativos, satisfaciendo a + b = c, tales que

c > rad (a · b · c ) 1 + ε

Recordemos que el radical de un número es simplemente el producto de sus factores primos. Por ejemplo, el radical de 16 es 2 (pues 16 = 24) y el de 18 es 2 · 3 = 6 (pues 18 = 2 · 32).

Una buena introducción a la conjetura se puede encontrar en este video en el que el doctor Héctor Pastén Vásquez la explica en un seminario el 21 de marzo de 2016 en el Institue for Advanced Studies en Princeton

Imagen de previsualización de YouTube

Intuitivamente, la conjetura dice que si a y b son divisibles a la vez por grandes potencias de números primos, entonces esto no ocurre con c. Una de las cuestiones interesantes de esta conjetura es que su prueba implica el Teorema de Fermat, que en su día probó Andrew Wiles.

Shinichi Mochizuki

 

En 2012 Mochizuki publicó en su página web una serie de cuatro artículos con más de 500 páginas en total, pero que no ha sido refrendada por la comunidad. Una de las dificultades reside en la prueba, con métodos desarrollados por el propio Mochizuki y de difícil comprensión por los especialistas (el propio director de tesis de Mochizuki, Gerd Faltings, medallista Fields, lo ha criticado públicamente por su falta de claridad). Para tratar dhte elucidar lo que Mochizuki llama teoría interuniversal de Teichmüller, se celebraron dos workshops, uno del 7 al 11 de diciembre en 2015 en Oxford , y otro el 18 al 27 de julio de 2016 se celebró en Kyoto.

Aula de seminarios del RIMS

Dos matemáticos alemanes, Peter Scholze (Universidad de Bonn), medallista Fields; y Jakob Stix (Universidad Goethe de Frankfurt), han encontrado un fallo crucial en la demostración de Mochizuki. Este lo ha negado, argumentando que ellos no han entendido sus razonamientos.

A pesar de la falta de acuerdo en la veracidad de la demostración, Mochizuki, que es investigador del Research Institute for Mathematical Sciences, de la universidad de Kyoto, ha decidido publicar sus resultados en la revista que edita su instituto, Publications of the Research Institute for Mathematical Sciences, una de las revistas más reconocidas en el ámbito de las matemáticas.

Pero el asunto es mucho más grave, abriendo una polémica de primera magnitud, porque Mochizuki es el director de la revista. Puede entenderse que un resultado de esta relevancia sea excelente para cualquier revista, pero siempre quedará la duda de cómo ha sido el proceso de revisión cuando los mejores matemáticos del mundo no han dado su aprobación.

En una revista se publican habitualmente artículos de los propios editores, eso sí, siguiendo un proceso completamente transparente; el editor no conoce quienes serán los revisores de su artículo y solo sabrá el resultado cuando le llegue el mensaje de aceptación o rechazo. Pero cuando se trata de un resultado de esta magnitud, el proceso debe ser diferente. Pero según indica RIMS, el artículo ha sido aceptado el pasado 5 de febero y solo se está pendiente de la fecha de publicación. La polémica está servida.

_

Manuel de León (CSIC, Fundador del ICMAT, Real Academia de Ciencias, Real Academia Canaria de Ciencias, Real Academia Galega de Ciencias).

Etiquetas: ,
Categorias: General

El aspecto del enemigo: el Covid-19

“Un virus es simplemente una mala noticia envuelta en proteínas.”

Jean y Peter Medawar, biólogos, 1977

 

Con el Covid-19 nos encontramos ante una amenaza no tan desconocida, que ya nos ha tocado combatir y que no será la última en poner en peligro nuestra forma actual de vida. A pesar de la incertidumbre ante Covid-19, conocemos al enemigo bastante más que los atenienses o los europeos de la Edad Media.

El aspecto de SARS-CoV-2
(imagen creada en Centers for Disease Control and Prevention)

Aunque las enfermedades causadas por virus han azotado la humanidad, la verdad es que los virus no son conocidos como entidades biológicas hasta finales del siglo XIX. La palabra virus se refería más bien a veneno o sustancia nociva. En 1884, el microbiólogo francés Charles Chamberland inventó un filtro con poros de diámetro inferior al de las bacterias, de manera que este filtro dejaba pasar a los virus. Este filtro, conocido hoy como filtro de Chamberland-Pasteur, permitió al biólogo ruso Dimitri Ivanovski en 1892 demostrar que los extractos de hojas molidas de plantas infectadas – con lo que hoy llamamos virus causante del mosaico del tabaco – seguían siendo infecciosos después de ser filtrados. Pero hubo que esperar a 1899, cuando el microbiólogo neerlandés Martinus Beijerinck, repitiendo el trabajo de Dimitri Ivanovski, propuso que existían entes, que llamó virus, más pequeños que las bacterias.

Martinus Willem Beijerinck

No obstante, hasta la invención del microscopio electrónico en 1931, por los ingenieros alemanes Ernst Ruska y Max Knoll, no se pudieron obtener las primeras imágenes de los virus. A partir de ese momento, se ha podido fotografiar en detalle a los virus y descubrir así qué aspecto tiene “el enemigo”. Hoy en día se han descubierto algunos virus que se pueden ver incluso con el microscopio óptico, llamados genéricamente megavirus, y que pueden llegar a tener un gran tamaño, ¡0,8 micras de diámetro! No sabemos cómo habría discurrido la historia de la Medicina si se hubiese visto este tipo de virus en el siglo XIX.

 

El aspecto del enemigo

Una de las primeras nociones sobre los virus es que no pueden ser considerados organismos vivos, carecen de orgánulos celulares y necesitan de las células para reproducirse. Su estructura es material genético (ARN) encerrado en una envoltura (cápside) que a veces, como ocurre con los coronavirus, lleva otra envoltura externa constituida por lípidos (membrana lipídica), de ahí la recomendación del uso de agua y jabón que arrastra esa última envoltura. Su tamaño oscila entre 10 y 100 nanómetros, por eso sólo son visibles con el microscopio electrónico.

Los virus suelen presentar simetrías:

Simetría icosaédrica: la cápside presenta la forma de un poliedro regular, un icosaedro, cuyas caras son triángulos equiláteros. Este es el caso del virus de la rubeola o el de la hepatitis.

Ejemplo de simetría icosaédrica
(disponible bajo licencia Creative Commons Reconocimiento 2.5 Genérica)

Simetría helicoidal o cilíndrica: los capsómeros están dispuestos verticalmente en torno a un eje y pueden presentar o no envoltura, como el virus de la gripe o el del mosaico del tabaco.

Ejemplo de simetría helicoidal
(disponible bajo licencia Creative Commons Attribution-Share Alike 3.0 Unported)

 

Simetría compleja: los capsómeros presentan una cabeza en forma de prisma hexagonal, unida a una cola en forma de hélice o muelle y finalizan en una capa de anclaje con varillas rígidas. Es decir, en ella se combinan elementos con simetría icosaédrica con otros con simetría helicoidal.

La estructura simétrica de los virus permite su coagulación, como si se tratara de materia no viva, y además permite su acoplamiento a una célula desde cualquier ángulo. Esta estructura ya fue debatida por F.H.C. Crick y J.D. Watson en 1956, quienes postularon que las envolturas de los virus se construían empaquetando bloques idénticos, conduciendo a solo algunas posibilidades geométricas, de ahí las simetrías observadas, como después probaron Donald Caspar y Aaron Klug en 1962.

Donald Caspar

 

Fijémonos en los coronavirus. Son una amplia familia de virus, que incluye a algunas variedades del catarro común, y otras más letales como el SARS-CoV y el MERS-CoV surgidos en 2003 y 2012, respectivamente. La terminología SARS proviene de Severe Acute Respiratory Syndrome y MERS de Middle East Respiratory Syndrome. En efecto, provocan afecciones respiratorias que en algún caso pueden ser mortales.

Y ahora tenemos al nombrado SARS-CoV-2 y la enfermedad asociada a él, COVID-19 (Coronavirus disease 2019). Esta distinción es similar a la que existe entre VIH (el virus) y SIDA (la enfermedad). Los coronavirus están hechos de ARN, poseen una envoltura esférica que incluye unas espículas como una corona, de ahí el nombre de estos tipos de virus. Las espículas están distribuidas simétricamente y son las que permiten al virus abrirse camino por las membranas de las células y atacar a éstas desde cualquier ángulo.

Los virus suelen entrar en las células en el interior de pequeñas cápsulas (fagosomas o endosomas) que los atrapan. Los virus aprovechan la bajada sistemática del pH en el interior de estas cápsulas para cambiar su estructura espacial e inyectar su material genético en la célula. Cuando eso ocurre, ya es cuestión de tiempo que secuestren la maquinaria celular para ponerla a su servicio y autoreplicarse.

A la espera de una vacuna, los tratamientos antivirales persiguen atacar uno o varios frentes: evitar la entrada; evitar que escapen de los endosomas; o inhibir la replicación. Esa triple vía de ataque ha sido muy exitosa contra el SIDA y representa una de las esperanzas, a corto plazo, para paliar el tremendo impacto de COVID-19.

Cada día conocemos más al enemigo, para lo que usamos la ciencia. No olvidemos nunca este binomio inseparable: ciencia y conocimiento.

Mario Castro Ponce (Universidad Pontificia Comillas), Manuel de León (Instituto de Ciencias Matemáticas CSIC, Real Academia de Ciencias) y Antonio Gómez Corral (Universidad Complutense de Madrid)

Etiquetas: , ,
Categorias: Covid-19

Las matemáticas contra la malaria y el modelo SIR

This day relenting God
Hath placed within my hand
A wondrous thing; and God
Be praised. At His command,
Seeking His secret deeds
With tears and toiling breath,
I find thy cunning seeds,
O million-murdering Death.
I know this little thing
A myriad men will save.
O Death, where is thy sting?
Thy victory, O Grave?

Poema de Ronald Ross para celebrar su descubrimiento

 

En nuestra entrada Las matemáticas del coronavirus Covid-19 presentamos el modelo SIR de epidemias como un modelo sencillo para dar sentido a los términos “pico de infección”, “crecimiento exponencial” y “aplanar la curva” que venimos oyendo en los medios desde el inicio de la pandemia. Desde su introducción, el modelo SIR ha generado un enorme interés por sus numerosas aplicaciones y por ser el origen de otros modelos más sofisticados; en concreto, una de sus evoluciones, el modelo SEIR, está siendo parte importante en la lucha contra Covid-19. En esta entrada queremos recordar a dos científicos, sir Ronald Ross y Anderson Gray McKendrick, por ser los precursores del uso de los modelos matemáticos, tanto deterministas como estocásticos, en la lucha contra otro implacable enemigo de la humanidad, la malaria.

Ronald Ross

Ronald Ross (Almora, 1857 – Londres, 1932) estudió Medicina en Londres y entró a formar parte del Servicio Médico Indio en 1881, ampliando su formación médica en Salud Pública y Bacteriología, una nueva ciencia creada por el químico y bacteriólogo francés Louis Pasteur y el médico y microbiólogo alemán Heinrich Hermenn Robert Kock. En 1894 conoció al físico y especialista en medicina tropical escocés Patrik Manson, quien mostró a Ronald Ross bajo el microscopio cómo la sangre de los infectados por malaria contenía parásitos y le sugirió que los parásitos podían provenir de los mosquitos, al igual que las infecciones por filariasis observadas por Patrik Manson en China. Entre 1895 y 1898, Ronald Ross investigó la propagación de la malaria, identificó el ciclo de vida del parásito en pájaros (¡no en humanos!) y mostró el rol de los mosquitos del género anopheles como vector de transmisión de la enfermedad. Estas investigaciones fueron el motivo para que ser galardonado con el Premio Nobel de Fisiología (o Medicina) en 1902.

A pesar de estar convencido de que no era necesario aniquilar a todos los mosquitos anopheles para erradicar la malaria, no fue hasta el año 1911 cuando Ronald Ross demostró, mediante el uso de un modelo determinista, que una reducción parcial de la población de mosquitos resultaría suficiente para hacer desaparecer la malaria entre los humanos. La idea fundamental fue la construcción de un sistema de dos ecuaciones diferenciales para el número H(t) y M(t) de humanos y de mosquitos infectados de malaria en un instante de tiempo t, y el estudio de condiciones para asegurar la existencia de, al menos, un punto de equilibrio; es decir, un par (a,b) que permite cuantificar como nula la variabilidad de H(t) y M(t) mediante sus derivadas, dH(t)/dt =0 y dM(t)/dt=0, cuando (H(t),M(t))=(a,b). Ronald Ross demostró que, cuando el número de mosquitos infectados por la malaria es inferior a un cierto umbral crítico M’, la malaria en las poblaciones de humanos y de mosquitos desaparecería con el paso del tiempo debido a que (H(t),M(t))=(0,0) sería el único punto de equilibrio, quedando mostrado que el combate contra la malaria no necesariamente implicaba el exterminio del mosquito anopheles.

Anderson McKendrick

El militar escocés Anderson Gray McKendrick (Edimburgo, 1876 – Cambridge, 1943) es considerado el pionero del uso de herramientas estocásticas en la propagación de enfermedades infecciosas gracias a la publicación, en el año 1926, del artículo “Applications of Mathematics to medical problems”, que contiene resultados de gran relevancia matemática, como la ecuación en derivadas parciales de McKendrick-Von Foerster. En ese mismo artículo, un modelo de epidemias y crecimiento de poblaciones pasó desapercibido hasta que, en el año 1939, fuera redescubierto por William Feller. El modelo es hoy conocido con las siglas SIR aludiendo a los tres compartimentos o subpoblaciones en que los individuos de una población de tamaño N constante son clasificados según su estado – S, susceptible; I, infectado; R, resistente – ante una enfermedad, y la evolución del estado del individuo (S–>I–>R) a lo largo de la epidemia.

Mosquito anopheles, transmisor de la malaria

Inspirado por el trabajo de Ronald Ross, con quien viajó a combatir la malaria en Sierra Leona, Anderson Gray McKendrick dedujo un sistema de ecuaciones diferenciales para las probabilidades Pi,r (t) de que, en el instante t, la población esté compuesta de i, r y s=N-i-r individuos infectados, resistentes y susceptibles, respectivamente, para cualesquiera valores (i,r) verificando i+r=1,…,N. En 1927, Anderson Gray McKendrick inició una fructífera colaboración científica con el bioquímico escocés William Ogilvy Kermack, que daría lugar a una teoría general hoy conocida como teoría de Kermack-McKendrick sobre la propagación de enfermedades infecciosas.

El lector de este blog debe observar una diferencia esencial entre los modelos de Ronald Ross y Anderson Gray McKendrick: el sistema de ecuaciones diferenciales de Anderson Gray McKendrick se refiere a la ley de probabilidad de las variables aleatorias I(t) y R(t) que describen el número de infectados y resistentes, para cada instante t de tiempo; mientras que el sistema de ecuaciones de Ronald Ross analiza la variabilidad de los números H(t) y M(t) de humanos y de mosquitos infectados de malaria como funciones de t. No podemos distraernos por el significado de las cantidades analizadas (o bien I(t) y R(t), o H(t) e M(t)). Lo importante es distinguir entre la naturaleza estocástica del modelo SIR de Anderson Gray McKendrick y el carácter determinista del modelo de Ronald Ross.

A pesar de que el modelo SIR original es un modelo estocástico, su versión determinista es más sencilla de tratar – analítica y numéricamente –, y resulta muy precisa cuando el tamaño N de la población es suficientemente grande, como es el caso tratado en nuestra entrada Las matemáticas del coronavirus Covid-19. Debido a su sencillez, es la herramienta más utilizada por los epidemiólogos y sirve de base para generalizaciones más realistas como el modelo SEIR (el más utilizado estos dias por los científicos) o, si finalmente no desarrollamos anticuerpos que nos protejan para una segunda “ola” de la epidemia, el modelo SIS.

 —

Mario Castro Ponce (Universidad Pontificia Comillas), Manuel de León (Instituto de Ciencias Matemáticas CSIC, Real Academia de Ciencias) y Antonio Gómez Corral (Universidad Complutense de Madrid)

Etiquetas:
Categorias: General

Vacunas y matemáticas: lecciones de la viruela

“Deseo simplemente que, en un tema que concierne tan directamente al bienestar de la raza humana, no se tome ninguna decisión sin el conocimiento que puede proporcionar un breve análisis y cálculo.”

Daniel Bernoulli, 1760

 

La viruela fue uno de los azotes de la humanidad, llegando a convertirse en una de las principales causas de mortandad en muchos países. La viruela está causada por un virus de ADN, llamado Variola Major. Se tiene conocimiento de que la viruela estaba ya presente en Europa durante la Edad Media, pero fue en el siglo XVII cuando comenzó a causar graves problemas y en el siglo XVIII resultara una enfermedad endémica. Durante el periodo comprendido entre 1761 y 1796, se atribuyen a la viruela, solo en Londres, de 3000 a 15000 muertes anuales, convirtiéndose en un azote para los niños con una tasa de mortalidad entre el 20 y el 30%.

 

Virus de la viruela

Una manera de combatir la viruela ya había sido desarrollada en China e India, y consistía en implantar parte de una pústula de un infectado a un individuo sano mediante una incisión; esa incisión se cerraba y se dejaba al individuo que desarrollara de una manera más leve la enfermedad. Esto se llamaba variolización o variolación, y era una especie de protovacuna. Esta técnica llegó a Inglaterra desde Turquía, gracias a la esposa de su embajador en ese país, Lady Montague. Debido a varios éxitos con gente de la nobleza, el método se hizo bastante popular.

 

Lady Mary Wortley Montagu

Aquí es donde intervino Daniel Bernouilli. Este científico es uno más de la increíble familia matemática de los Bernouilli. Daniel nació en Groninga, Países Bajos, donde su padre, Johann Bernoulli era entonces profesor de Matemáticas. En 1705, su padre consigue una plaza en la Universidad de Basilea, su ciudad natal, y allí se trasladó con su familia.

Daniel Bernouilli estudió Medicina en Basilea, pero a la vez aprendió en casa Matemáticas. Terminó sus estudios de Medicina en 1721, y en 1726 aceptó la oferta de Catalina I de Rusia para ocupar una plaza de profesor en la recién fundada Academia de Ciencias de San Petersburgo, donde permaneció ocho años y coincidió con Leonhard Euler. Después, volvió como profesor a Basilea y, finalmente, ocupó la cátedra de su padre. Digamos, aunque esta es otra historia, que mantuvo un duro enfrentamiento con él mismo; los Bernouilli eran grandes científicos, pero amantes también de la fama que no gustaban compartir ni con sus hijos.

Daniel Bernouilli

Daniel Bernoulli se interesó por la viruela y publicó en 1760 un artículo en Mércure de France defendiendo el método de variolización. Para ello usó el cálculo de probabilidades, resultados que presentó a la Academia de Ciencias de París con la memoria “Essai d’une nouvelle analyse de la mortalité causée par la petite vérole et des avantages de l’inoculation pour la prévenir”. El trabajo de Bernouilli es pionero en la formulación de un modelo matemático, la utilización de los datos disponibles hasta la época e incluso la estimación de los parámetros del modelo a partir de los datos. ¡No está mal para 1760!

La respuesta la obtuvo de Jean le Rond D’Alembert y fue publicada en 1761, mientras que la memoria de Daniel Bernouilli no lo fue hasta 1766. Debemos decir en honor a la verdad que la polémica suscitada entre ellos ayudó a enfocar el problema matemático de una manera sustancial. El modelo de Daniel Bernouilli era bastante sencillo y estaba basado en la probabilidad de contraer la viruela y en la de supervivencia del individuo una vez infectado, bajo la hipótesis de que un individuo solo se infectaría una vez al quedar inmunizado en uno u otro caso. Hay que tener en cuenta también la probabilidad de muerte por otras causas. Con unos cálculos no muy complicados, Daniel Bernouilli fue capaz de calcular el porcentaje de individuos en riesgo a una cierta edad x. Esto le permitió comparar las esperanzas de vida con y sin vacuna (matemáticamente debía comparar dos integrales), con 3 años más en el primer caso (de 24 a 27 años). Cuando consideraba que al vacunar hay también muertes, obtenía un resultado también favorable.

Sin embargo, su propuesta de implantar la vacunación general en Francia a los niños no tuvo éxito, y no necesariamente porque alargar la vida 3 años no fuese un aliciente. Se debe a otro gran matemático, el francés Jean le Rond d´Alembert, que se opuso a la propuesta de Daniel Bernouilli. Jean le Rond D’ Alembert no rebatió los argumentos matemáticos de Daniel Bernoulli, simplemente señaló que la teoría de probabilidades no se podía aplicar a temas como éste, es decir, antepuso los derechos individuales frente a los del Estado, ya que cada persona debería poder decidir una u otra cosa porque las circunstancias individuales eran muy diferentes a diferentes edades: maximizar la esperanza de vida puede no ser un criterio racional para un individuo. Como decía Jean le Rond d´Alembert, “no debemos sacrificar un bien presente por la esperanza de uno mayor en el futuro pero incierto”. Parafreaseando a Einstein, d’Alembert: no quería dejar la vida de los franceses en manos de los dados.

Esto a pesar del apoyo público de personajes como Voltaire, que sufrió la viruela, y que escribió a favor de Daniel Bernouilli en sus Cartas Filosóficas:

Se afirma inadvertidamente en los países cristianos de Europa que los ingleses son tontos y locos. Tontos, porque dan a sus hijos la viruela para evitar que la cojan; y locos, porque sin querer comunican un cierto y terrible moquillo a sus hijos, simplemente para prevenir un mal incierto.

Paradójicamente, en estas semanas de vorágine informativa y científica, los dos trabajos más influyentes en la opinión pública (el estudio de Imperial College que convenció a Boris Johnson de adoptar medidas de confinamiento, y el reciente de Oxford que sitúa la cifra de infectados en España en 7 millones) son modelos probabilísticos inspirados por el modelo SIR que describimos en Las Matemáticas del Coronavirus Covid-19. Así, la intuición de Daniel Bernouilli acerca del valor de la teoría de probabilidades para entender la epidemia es hoy más vigente que nunca.

En la actualidad, la inmensa mayoría de la población es consciente de la eficacia de una buena campaña de vacunación y la viruela, por ejemplo, ha sido declarada la primera enfermedad erradicada de la historia (y de cuya erradicación se cumplen 40 años). Estos días se acumulan muchos esfuerzos para combatir el coronavirus incluso desde las matemáticas. No obstante, para conseguir una vacuna contra Covid-19 tendremos que esperar algo más de un año hasta que esté lista. Esta pandemia debería hacer reflexionar a esa minoría de antivacunas por cuya causa enfermedades prácticamente erradicadas están volviendo a resurgir. Ahora tenemos un virus nuevo, contra el que nuestros sistemas inmunológicos están fabricando anticuerpos, pero frente al cual probablemente solo ganaremos, a largo plazo, la batalla definitiva con una vacuna adecuada.

 —

Mario Castro Ponce (Universidad Pontificia Comillas), Manuel de León (Instituto de Ciencias Matemáticas CSIC, Real Academia de Ciencias) y Antonio Gómez Corral (Universidad Complutense de Madrid)


Etiquetas: , , ,
Categorias: Covid-19