web analytics

Archivo de mayo, 2020

La vocación matemática de las cigarras

Tras pasar 17 años bajo tierra, millones de cigarras emergieron en muchos lugares de los Estados Unidos en este mes de mayo. ¿ Cuáles son las causas de este fenómeno, que lleva a que las ninfas de cigarra permanezcan años enterradas, hasta que misteriosamente deciden salir convertidas en cigarras adultas al aire libre?

 

Pehr Kalm

 

Las cigarras que ahora están eclosionando en Estados Unidos son las Magicicada septendecium. El ciclo vital de esta cigarra es de 17 años, lo que es un número que sorprende por grande y por ser primo. ¿Por qué este ciclo vital tan extraño que la ha llevado a ser conocida como la langosta de los diecisiete años?

Una primera observación es la del naturalista sueco-finlandés Pehr Kalm, cuando visitó Pennsylvania y New Jersey en 1749, al observar a finales de mayo de ese año la aparición de las cigarras (con toda su potencia sonora). Kahn escribió en su informe:

“La opinión general es que esos insectos aparecen en una gran cantidad cada diecisiete años. Mientras tanto, a excepción de una ocasional que puede aparecer en el verano, permanecen bajo tierra. Hay evidencia considerable de que estos insectos aparecen cada diecisiete años en Pensilvania”.

Y añade:

“Aquí hay una especie de langostas que cada diecisiete años aparecen en números increíbles …. En el intervalo entre los años cuando son tan numerosas, sólo se ven o se escuchan algunos individuos en el bosque.”

 

Magicicada septendecim

Kalm nació en Suecia en 1716, aunque creció en Finlandia, entonces parte de Suecia. Estudió en la Universidad de Upsala y siguió los cursos de Carlos Linneo, el gran naturalista. Consiguió una plaza de profesor de Historia Natural en Turku (la antigua Abo). La Real Academia de las Ciencias de Suecia le eligió para hacer un viaje a Norteamérica con el fin de recoger información y especímenes de todas las semillas y nuevas plantas que pudieran revelarse útiles para la agricultura y la industria. Llegó a Pensilvania en 1748, y permaneció tres años allí, durante los que desempeñó una intensa actividad investigadora. Se isntaló en la comunidad sueco-finlandesa de Raccoon, en el sur de Nueva Jersey.

Sirvió también como pastor luterano, y contrajo matrimonio con la viuda del pastor anterior. Antes de volver a Suecia, visitó Canadá, y alcanzó todavía más fama por haber sido el primer europeo en describir las cataratas del Niágara. Sus trabajo lo recogió en el libro En Resa til Norra America. A su vuelta, es nombrado profesor de la rael Academia de Turku, considerada la primera universidad de Finlandia.

Este periodo de 17 años observado por Kalm, fue lo que llevó a Carlos Linneo a denominarlas como Cicada septendecim. Se han descrito otras cigarras con ciclos más cortos, como la Magicicada tredecim, también un número primo, 13. En los intervalos, las ninfas se pueden encontrar hasta tres e incluso nueve metros bajo tierra.

 

Magicicada tredecim

Las razones son ahora conocidas, y es porque este ciclo le permite protegerse de depredadores, que coordinarían su llegada con la de las cigarras para darse el gran festín. Si el depredador y la cigarra compartieran divisores en sus ciclos, ambos animales coincidirían de manera regular.

Imaginemos por ejemplo que el depredador tuviera un ciclo de dos años; coincidirían cada 34 años, y el cálculo no es más que el del mínimo común múltiplo. Si los estudiantes se preguntan sobre la utilidad de estos cálculos, ya ven que para las cigarras es pura supervivencia, y no cabe duda de que esta es una buena razón para saber matemáticas.

__________

Manuel de León (CSIC, Fundador del ICMAT, Real Academia de Ciencias, Real Academia Canaria de Ciencias, Real Academia Galega de Ciencias).

 

 

Etiquetas: , ,
Categorias: General

La ley de los grandes números y el libre albedrío

Bajo el nombre de ley de los grandes números son conocidos aquellos resultados del Cálculo de Probabilidades sobre la estabilidad a largo plazo de las realizaciones de una familia de variables aleatorias. Tradicionalmente, la primera ley de los grandes números es atribuida al matemático suizo Jacob Bernoulli (Basel, 1654 – Basel, 1705), aunque su demostración fuera publicada en 1713 por su sobrino Nicholas como parte de su libro póstumo Ars Conjectandi (El Arte de Hacer Conjeturas). Formalmente, se refiere a una sucesión de variables aleatorias independientes e idénticamente distribuidas con varianza finita y asegura que el promedio de las n primeras observaciones (variables aleatorias) se acerca a la media teórica cuando el número n de repeticiones tiende hacia infinito.

 

Para llevar la contraria a algunos de nuestros colegas, tenemos la satisfacción de puntualizar aquí que, previamente a la contribución de Jacob Bernoulli, el matemático italiano Gerolamo Cardano (Pavia, 1501 – Roma, 1576) ya había enunciado esta ley, de manera más intuitiva, en el sentido de que repetir un ensayo muchas veces mejora la probabilidad de un suceso.

La relación con la definición frecuentista de probabilidad

Pongamos un ejemplo sencillo. Supongamos que pretendemos conocer la probabilidad del suceso “obtener 3” en el lanzamiento de un dado equilibrado y que, para ello, repetimos una y otra vez, de manera independiente y bajo idénticas condiciones, el lanzamiento de un dado registrando un 1 si se observa como resultado “3”, y un 0 en el caso de obtener otros resultados; es decir, la variable aleatoria asociada a cada repetición toma los valores 1 y 0 con probabilidades 1/6 y 5/6, respectivamente. La frecuencia de aparición del resultado “3” durante los primeros n lanzamientos equivale al cociente entre la suma de los 1’s asociados a los n lanzamientos y el número n de lanzamientos. Cuando el número de lanzamientos es suficientemente grande, la aparición porcentual del suceso “obtener 3” será muy cercana a la probabilidad teórica 1/6 del suceso, gracias a que la media de la variable aleatoria asociada a un único lanzamiento (es decir, 1 x 1/6 + 0 x 5/6) coincide con la probabilidad 1/6 del suceso.

Jakob Bernouilli

Dos tipos de convergencias estocásticas de sucesiones de variables aleatorias – la convergencia en probabilidad (ley débil) y la convergencia casi segura (ley fuerte) – permiten dar el aspecto formal moderno a un resultado tan famoso que, hasta la década de 1930, fue empleado como definición frecuentista de la noción de probabilidad de un suceso.

A partir de 1930, la definición axiomática de espacio de probabilidad, formulada por el matemático ruso Andrey Nikolaevich Kolmogorov (Tambov, 1903 – Moscú, 1987) encajaría los problemas probabilísticos en el contexto de la Teoría de la Medida. Ese hecho resultó crucial y ha significado el desarrollo de un importante número de resultados que, inspirados en las primeras leyes de los grandes números, están orientados hacia la generalización de la hipótesis de independencia entre variables aleatorias, entre otros aspectos.

Una lucha que transcendió más allá de las matemáticas

El teorema de Jacob Bernouilli fue conocido como el “Teorema de Oro” o “Teorema de Bernouilli” hasta que, en 1837, Simeon Denis Poisson (Loiret, 1781-Sceaux, 1840) lo citó con su nombre actual, que es el que ha prevalecido hasta nuestros días. Posteriormente, Chebyshev, es decir, Pafnuti Lvóvich Chebyshov (Okátovo, 1821 – San Petersburgo, 1894) publicó una nueva prueba que su discípulo Andrei Markov mejoró notablemente.

 

Pavel Nekrasov

Lo que no es tan conocido en la historia de las leyes de los grandes números es la polémica que Andrei Markov mantuvo con su colega matemático Pavel Nekrasov (1853 – 1924), de la Universidad de Moscú, desde 1905 en San Petersburgo.

Pavel Nekrasov había estudiado primero Teología en un seminario ortodoxo y fue uno de los matemáticos rusos influenciados por la religión, lo que le provocó muchos problemas a pesar de que, tras la Revolución de Octubre, intentara sin mucho éxito una aproximación al marxismo.

La disputa entre Andrei Markov y Pavel Nekrasov se desarrolló en torno a la ley de los grandes números. La demostración dada por Pavel Nekrasov se basaba en la hipótesis de independencia entre los sucesos aleatorios (en el anterior ejemplo, cada vez que lanzo el dado se asume la independencia entre los sucesos observados), mientras que Andrei Markov probó que esa hipótesis no era necesaria. En otras palabras, el teorema era cierto incluso cuando hubiese dependencia entre las variables aleatorias (bajo ciertas condiciones).

Andrei Markov despreciaba el trabajo de Pavel Nekrasov diciendo que sus obras “eran un abuso de las matemáticas”. Es evidente que no había mucha amistad entre ellos, aunque para entender mejor la agresividad de estos comentarios tendríamos que destacar que Andrei Markov no era precisamente conocido por ser un “hombre de paz” y que, por el contrario, era de un carácter molesto, incluso con sus amigos, y despiadado con sus rivales.

Pero el fondo de la cuestión tenía trasfondo teológico porque la pelea versaba sobre la existencia o no del libre albedrío. Pavel Nekrasov y Andrei Markov, como la mayoría de los matemáticos rusos, creían que las matemáticas afectaban a la religión, pero sus aproximaciones y conclusiones eran opuestas. Si por un lado Pavel Nekrasov era zarista y ortodoxo, por el otro lado Andrei Markov era antizarista y ateo.

La cuestión era:

¿Podía la teoría de probabilidades dar una respuesta a esta cuestión de si tenemos libertad en nuestros actos o están estos predeterminados por Dios?

Según Pavel Nekrasov, la ley de los grandes números no era capaz de explicar  las regularidades estadísticas observadas en la vida social. En concreto, argumentaba que los actos voluntarios tenían que ser considerados como eventos independientes desde el punto de vista de la probabilidad. Así que la gente actuaba con libre albedrío, de acuerdo con la doctrina ortodoxa.

Mostrando su disconformidad con esta visión, Andrei Markov se lanzó a buscar un ejemplo en el que se observara dependencia y, a pesar de ello, se cumpliera la ley de los grandes números. El ataque a los argumentos de su rival fue el estudio del poema en verso Eugene Onegin de Alexander Pushkin, que dio lugar al descubrimiento de las cadenas de Markov, tal y como hemos descrito en una de nuestras recientes entradas.

Como hemos visto, las relaciones de Andrei Markov con la iglesia ortodoxa no eran muy buenas. De hecho, cuando Leon Tolstoi fue excomulgado, Andrei Markov pidió el mismo trato. Le fue concedido de manera inmediata.

_____

Manuel de León (Instituto de Ciencias Matemáticas CSIC, Real Academia de Ciencias) y Antonio Gómez Corral (Universidad Complutense de Madrid)

Etiquetas: , , ,
Categorias: Covid-19

Estamos hechos de matemáticas

¿Qué es lo que nos define como especie en nuestro planeta? ¿El lenguaje? Es cierto, ha sido uno de los hitos en nuestra breve historia como humanos, pero quizás inevitable en el desarrollo evolutivo. Y como prueba, el Babel de lenguas que hemos sido capaces de desarrollar, y también que no somos la única especie que nos comunicamos con nuestros iguales, entendiendo el lenguaje en un sentido biológico y por tanto muy amplio.

 

Papiro Rhind

¿La escritura? Probablemente somos la única especie que hemos sido capaces de saltar de una tradición oral a una tradición escrita. La tradición oral, las experiencias que el grupo social transmite a los nuevos miembros, pudo ser sustituida por la escrita, de manera que el conocimiento colectivo  experimentó un salto extraordinario. Pero, ¿cómo nace la escritura?

Todo indica que la necesidad de anotar la cantidad de animales de un rebaño, marcar límites en agricultura, medir el paso de los días, llevó a crear símbolos y de paso contribuyó a la creación del lenguaje escrito. De manera que son las matemáticas el elemento unificador de las diferentes culturas.

Y las pruebas están en los testimonios que hemos conseguido conservar. Desde las muescas en un peroné de un babuino (el hueso de Ishango), hace 20.000 años, a las tablillas de arcilla de la antigua Babilonia, plagadas de matemáticas;  o los papiros hechos con los juncos del Nilo del Antiguo Egipto; o los pergaminos con las pieles de los animales. El magnífico ensayo de Irene Vallejo, “El infinito en un junco”, narra el nacimiento del libro, aunque no incluye la enorme cantidad de obras que estaban dedicadas a las matemáticas, y eran copiadas una y otra vez.

Tablilla babilónica

Esas matemáticas fueron llegando a Europa tras un largo camino de siglos y aún milenios: las matemáticas de Babilonia y Egipto nutrieron a los griegos, que crearon la geometría y la necesidad del rigor matemático de la demostración. Y de la India nos vinieron las cifras y el cero gracias a los árabes, excelentes cultivadores de las matemáticas. Y esa “demoníaca demoníaca invención del cero” y el sistema decimal venció al gremio de los abacistas, y en el crisol de Europa, las matemáticas se hicieron únicas y universales.

Códice Vigilano

Las matemáticas se convirtieron entonces en el único lenguaje auténticamente universal, y sus métodos en la manera correcta de afrontar la descripción del mundo (Galileo dixit). Somos seres matemáticos, es nuestra mayor y genuina seña de identidad. Tenemos que ser capaces de inculcar esta realidad en nuestros hijos, las matemáticas no solo son instrumentales e imprescindibles para crear los modelos de todo tipo con los que afrontamos los desafíos de nuestra especie en uno de los billones de planetas del universo; son nuestro gran logro, nuestra herencia para los que nos sigan. Tenemos que ser capaces de transmitir esta idea al conjunto de la sociedad.

_____

Manuel de León (CSIC, Fundador del ICMAT, Real Academia de Ciencias, Real Academia Canaria de Ciencias, Real Academia Galega de Ciencias).

Etiquetas:
Categorias: General

La propagación de una epidemia usando cadenas de Markov (IV)

Las cadenas de Markov se han revelado de una enorme utilidad en numerosos campos, en particular, en la predicción y el control del desarrollo de una epidemia. En esta entrada vamos a considerar dos situaciones diferentes, referidas al virus VIH del SIDA y al virus SARS-CoV-2 de la Covid-19, analizadas mediante dos modelos sencillos.

Andrey Markov

Como habíamos comentado en entradas anteriores, una cadena de Markov es un proceso estocástico o conjunto de variables aleatorias (en cantidad discreta o continua, según el contexto) caracterizadas por la propiedad Markoviana, es decir, se refleja que el valor o estado de la variable asociada a un instante concreto de tiempo determina el siguiente estado del sistema en estudio, pero éste no depende de los estados asociados a las variables aleatorias anteriores. En otras palabras, “el futuro depende del pasado, pero sólo a través del presente”.

Las aplicaciones de las cadenas de Markov en el estudio de epidemias se desarrollan en paralelo a aquéllas realizadas desde el uso de ecuaciones diferenciales. El lector habitual de este blog puede observar ese paralelismo en dos de nuestras recientes entradas. En concreto, el modelo SIR en la entrada Las matemáticas del coronavirus Covid-19 es construido en el contexto determinístico, mientras que nuestros comentarios en la entrada Las matemáticas contra la malaria y el modelo SIR destacaban el papel crucial de Anderson Grey McKendrick en la formulación estocástica del modelo SIR.

Es importante incidir sobre las diferencias fundamentales entre el mundo determinista y el mundo estocástico, tanto para identificar la herramienta matemática usada como para entender el objeto en estudio. A pesar de que hablamos en ambos casos de ecuaciones diferenciales, éstas son concebidas de manera diferente:

  • En el contexto determinista, las ecuaciones diferenciales regulan la evolución de los números de susceptibles, de infectados y de recuperados – equivalentemente, sus proporciones – en cada instante de tiempo t, concibiendo estos números como funciones de t (el tiempo), de modo que cada uno de estos números es una función real de variable real.
  • En el contexto estocástico, las ecuaciones diferenciales involucran a la distribución de probabilidad conjunta de los números de susceptibles, de infectados y de recuperados en el instante de tiempo t, concibiendo estos números como variables aleatorias y tenemos, en el caso del modelo SIR, tres variables aleatorias asociadas (los números de susceptibles, infectados y recuperados) a cada instante de tiempo t.

Como consecuencia de lo anterior, la solución del sistema de ecuaciones diferenciales en un contexto determinista permite dibujar los números de susceptibles, de infectados y de recuperados en función del tiempo y la curva representando a uno de estos números, por ejemplo, el número de infectados I(t) en el instante t, sobre unos ejes cartesianos es única como función real de t. Por el contrario, cuando se resuelve el sistema de ecuaciones diferenciales en el contexto estocástico se obtiene la distribución de probabilidad conjunta de los números de susceptibles, de infectados y de recuperados en cada instante de tiempo t. Si, por ejemplo, nos centramos en el número de infectados I(t) en el instante t, entonces es posible dibujar la probabilidad de que I(t) = i como una curva como función de t, para cada valor i entre 0, 1, …, N, siendo N el tamaño total de la población. Esas curvas, y tenemos una para cada valor i, expresan cómo de verosímiles son cada uno de los valores posibles de la variable aleatoria I(t). Informalmente hablando, esto equivale a lo siguiente:

Si fuéramos capaces de reproducir un número n grande de situaciones prácticas de la propagación de una epidemia de tipo SIR entre los individuos de una población y contabilizásemos, en un instante de tiempo t concreto, la frecuencia relativa de aparición de cada valor i entre esas n situaciones, esas frecuencias relativas serían una estimación de la probabilidad de que I(t) = i, tanto más precisa cuanto mayor sea el número grande n de situaciones observadas.

Andrey Kolmogorov

En este punto, la llave que formaliza el comportamiento asintótico que, cuando n tiende hacia infinito, subyace en nuestro comentario es uno de los resultados fundamentales de la Teoría de la Probabilidad moderna, las leyes de los grandes números, que permiten acceder a la definición axiomática de probabilidad – formulada por el matemático ruso Andrey Nikolaevich Kolmogorov (Tambov, 1903 – Moscú, 1987) – desde la noción de probabilidad frecuentista vigente hasta principios de 1930. Para ello es necesario aludir a la convergencia en probabilidad (ley débil) o a la convergencia casi segura (ley fuerte).

Una vez hecha, quizás no muy brevemente, esta puntualización sobre modelos deterministas versus modelos estocásticos, nos centramos en el contexto estocástico y comentamos sobre dos modelos de epidemias basados en cadenas de Markov. Hemos usado dos artículos científicos en los que el lector interesado en profundizar más allá de este blog podrá encontrar más detalles y bibliografía.

 

La epidemia del VIH/SIDA

En el artículo titulado “Modelo estocástico para la epidemia del VIH/SIDA”, de Erick Manuel Delgado-Moya y Aymée Marrero-Severo, se construye una sencilla cadena de Markov de la siguiente forma:

Se definen, como en las variantes del modelo SIR, cuatro posibles estados para un individuo de la población en cuestión: S (susceptible), I (infectado), N (individuo muerto por muerte natural) y E (individuo muerto a causa de la enfermedad). Como unidad de tiempo se emplea el año, generando entonces una cadena de Markov en tiempo discreto cuando el estado de un individuo es registrado, por ejemplo, el día 1 de marzo de cada año, si éste se sometiera a pruebas diagnósticas con una periodicidad anual. Las probabilidades asociadas a la evolución del estado de un individuo entre dos etapas consecutivas, es decir, desde una revisión diagnóstica y la siguiente, se denotan por

α: probabilidad de mantenerse en el estado de susceptible.

β: probabilidad de mantenerse en el estado de infectado.

μ: probabilidad de muerte natural.

γ: probabilidad de, estando en el estado susceptible, pasar al estado de infectado.

ε: probabilidad de muerte por la enfermedad, dado que está en el estado infectado.

 

Debemos recordar que, para obtener una matriz de transición, se deben cumplir las relaciones

α+γ+μ= 1   y  β+μ+ ε = 1.

Las probabilidades anteriores están ligadas a las transiciones

de modo que la matriz de transición viene dada por

 

Sin entrar en los detalles del estudio de Erick Manuel Delgado-Moya y Aymée Marrero-Severo, una cuestión interesante está asociada a cómo influir para mejorar los resultados en el tratamiento terapéutico de un paciente. Tendríamos, por tanto, que influir sobre el parámetro ε, que se suele parametrizar como una función o índice de eficacia. Claro que, si reducimos la mortalidad con el tratamiento, también podríamos estar contribuyendo a aumentar el número de infectados.

Ciclo de replicación del virus del SIDA

Surge entonces un interesante problema vinculado al control del número de infectados que, en el caso del SIDA, se puede abordar desde la abstinencia, la reducción de las prácticas sexuales o el uso de barreras profilácticas (preservativos), así como desde los beneficios de un adecuado tratamiento terapéutico. Como un procedimiento alternativo al realizado por los autores, mencionamos que es posible abordar el problema de control – resultante desde la introducción de costes – usando la teoría de la decisión Markoviana que combina cadenas de Markov con técnicas de Optimización Matemática.

La lucha contra el coronavirus SARS-CoV-2 de la Covid-19

Describimos ahora, de manera concisa, el modelo diseñado en el reciente artículo “COVID-19: Estimating spread in Spain solving an inverse problem with a probabilistic model”, de Marcos Matabuena, Carlos Meijide-García, Pablo Rodríguez-Mier y Víctor Leborán. Con nuestros comentarios no pretendemos reproducir su contenido, sino poner de manifiesto cómo es posible partir de un modelo sencillo, basado en una cadena de Markov, y generar una variante más avanzada prescindiendo de los principios Markovianos.

Previamente, es obligado hacer dos observaciones necesarias para entender cómo describir una cadena de Markov en tiempo continuo desde elementos más sencillos. En concreto, una cadena de Markov en tiempo continuo, denotada por {X(t): t0}, podemos describirla a través de combinar dos elementos:

  • La sucesión de estados visitados, {Xn: n=0,1,…}, que resulta ser una cadena de Markov en tiempo discreto, denominada cadena encajada, y tiene una matriz de transición específica.
  • La sucesión de tiempos de permanencia en los estados visitados que, en el supuesto de que el proceso acceda al estado i, implica que el tiempo de permanencia en ese estado es una variable aleatoria exponencial de parámetro α(i), de manera que el tiempo medio de permanencia en el estado i es 1/α(i), y no depende de los estados anteriormente visitados antes de acceder a i, ni del estado que se visitará cuando el proceso abandone i.

El lector avanzado dentro de la teoría de procesos estocásticos observará que la anterior descripción se refiere a una cadena de Markov en tiempo continuo regular y no de cualquiera, pero esta descripción es suficiente para nuestro objetivo en este ejemplo.

En este caso, el modelo de Marcos Matabuena, Carlos Meijide-García, Pablo Rodríguez-Mier y Víctor Leborán contiene las siguientes variables:

S(t):  número de individuos susceptibles en el instante t

I1(t): número de individuos infectados que están incubando el virus en el instante t

I2(t):  número de individuos infectados que han pasado el periodo de incubación, pero no muestran síntomas de la enfermedad en el instante t

I3(t):  número de individuos infectados que han pasado el periodo de incubación y presentan síntomas en el instante t

R1(t): número de individuos recuperados que son todavía capaces de infectar a otros en el instante t

R2(t): número de individuos recuperados que no son capaces de infectar a otros en el instante t

M(t): número de fallecidos acumulados hasta el instante t

Entonces, I(t) = I1(t) + I2(t) +I3(t) representa el número total de infectados en el instante de tiempo t, y R(t) = R1(t) + R2(t) es el número de recuperados.

El siguiente gráfico es una representación esquemática de las transiciones entre los siete compartimentos o subpoblaciones que las variables anteriores generan:

Representación esquemática tomada desde el artículo de Marcos Matabuena, Carlos Meijide-García, Pablo Rodríguez-Mier y Víctor Leborán, arxiv.org/abs/2004.13695

 

Si queremos alimentar la sopa de letras surgida desde el modelo SIR, entonces la anterior figura es un ejemplo de otra variante del modelo SIR.

El modelo construido para las anteriores variables aleatorias sirve a los autores para extraer interesantes conclusiones para España, con comentarios específicos sobre sus Comunidades Autónomas, aunque no lo hagan directamente desde una cadena de Markov en tiempo continuo, sino un proceso inspirado en ella. En concreto, usan una matriz de transición de la cadena encajada de la forma

Sin embargo, la experiencia de los autores y la literatura existente ha llevado a éstos a reemplazar la hipótesis de exponencialidad sobre los tiempos de permanencia por otras distribuciones de probabilidad que hacen que el proceso estocástico (S(t), I1(t), I2(t), I3(t), R1(t), R2(t), M(t)) no sea Markoviano, pero sí se ajuste mejor a la incidencia del virus SARS-CoV-2 sobre la población española. Aparentemente, la dependencia de los estados de destino en las transiciones en la siguiente tabla (por ejemplo, el tiempo de permanencia en el estado I3 depende del estado final de transición R1 y M) nos lleva a sospechar que el proceso (S(t), I1(t), I2(t), I3(t), R1(t), R2(t), M(t)) no conserva, ni tan siquiera, las virtudes de un proceso de Markov determinista por partes (piecewise-deterministic Markov process). El modelo resultante no es estacionario y tiene una estructura de dependencia compleja.

Las distribuciones usadas por Marcos Matabuena, Carlos Meijide-García, Pablo Rodríguez-Mier y Víctor Leborán.

 

Para el resto de detalles, de tanta actualidad en los días que vivimos, remitimos al lector al artículo original de los autores.

_____

Manuel de León (Instituto de Ciencias Matemáticas CSIC, Real Academia de Ciencias) y Antonio Gómez Corral (Universidad Complutense de Madrid)

Etiquetas: , , ,
Categorias: Covid-19

De cómo la poesía dio lugar a las cadenas de Markov (III)

Comentábamos en una entrada previa sobre Andrei Markov que su interés al crear las cadenas que hoy llevan su nombre no tenía conexión alguna con posibles aplicaciones, excepto las que desarrolló en literatura por su gran afición a la poesía. Ese interés tan peculiar sigue vigente, como veremos, en nuestros días.

 

Alexander Pushkin

 

De la poesía a las cadenas de Markov

De hecho, el trabajo de Andrei Markov se centró sobre la obra en verso “Eugene Onegin”, de Alexander Pushkin. Andrei Markov dedicó horas, muchas horas, a analizar las secuencias de vocales y consonantes. Y en enero de 1913 presentó sus resultados a la Academia de Ciencias, resultados que no fueron tan importantes para la poesía como sí lo fueron para las matemáticas y sus aplicaciones. A continuación, reproducimos un resumen muy breve del análisis de Andrei Markov. Los lectores de este blog que quieran más detalles sobre esta cuestión pueden seguir el enlace para acceder a un interesante artículo firmado por Brian Hayes.

Andrei Markov no entró en la estructura en sí misma del poema, sino que eliminando puntuaciones, espacios, etc. recogió las 20.000 primeras letras del poema de Alexander Pushkin y organizó éstas en 200 bloques de 10 x10 letras, contando vocales y consonantes en cada fila y cada columna (8.638 vocales y 11.362 consonantes). Calculó medias y varianzas para obtener las medidas de dispersión. A continuación, clasificó pares de letras sucesivas y encontró 1.104 pares de vocales y 3.827 consonantes dobles; el resto serían 15.069 pares de vocal y consonante, o de consonante y vocal.

Ahora podríamos calcular la probabilidad de que una letra elegida arbitrariamente sea una vocal,

8.638/20.000 = 0,43.

Si asumiéramos que todas las letras hubieran sido dispuestas de manera independiente unas de otras, la probabilidad de encontrar dos vocales consecutivas sería

0,43 x 0,43 = 0,19.

Pero la realidad, con lo que hemos contado, es que esa probabilidad debería ser tres veces mayor.

Desde esta observación, la conclusión es clara: las letras no son independientes en el poema y en cada una se observa una dependencia de la letra anterior.

 

Manuscrito de Pushkin

De las cadenas de Markov a la poesía

Cerramos el círculo “cadenas de Markov versus poesía” con algunos ejemplos de cómo este desarrollo probabilístico puede ser usado para crear poesía. Para no ser pretenciosos, vamos a calificarlo como “generar poesía”, pues poca seguridad hay sobre la belleza del resultado final de la composición.

Uno de los instrumentos más interesantes es un generador de poesía llamado Markomposition. Su funcionamiento se inicia cuando, a petición suya, introducimos una frase y el programa, aplicando de manera aleatoria cadenas de Markov, va produciendo el poema.

Recordemos la idea básica de una cadena de Markov: tenemos diferentes estados y las probabilidades de pasar de unos a otros. Para ver cómo se puede aplicar a la literatura, crearíamos estados de modo que cada uno de ellos sea una palabra o una frase, y estableceríamos la probabilidad de pasar de una palabra a otra, o de una palabra a una frase, etc.

En Markomposition se dan algunas instrucciones básicas para su manejo. Por ejemplo, y aunque sea una obviedad, la calidad de lo que obtengamos dependerá no solo de la calidad de los estados posibles, sino también de la variedad de secuenciaciones; es decir, si cada palabra tuviera un solo sucesor, solo habría un poema, así que cuanta mayor variedad en las disposiciones de las palabras introduzcamos, más opciones tendremos de obtener composiciones diferentes. Otra de las variables a considerar se refiere a que debemos fomentar una cierta repetición, base del ritmo poético.

Marie Chatfield Rivas

En la página web de Markomposition, la autora, Marie Chatfield, comenta que ha usado el Proyecto Gutenberg, una biblioteca digital con 60.000 libros electrónicos gratuitos. En particular, para los ejemplos que allí muestra, ha empelado las obras en inglés

  • Poems, de Emily Dickinson
  • The Divine Comedy, de Dante Alighieri
  • Grimm’s Fairy Tales
  • The Sonnets, Triumps, and Other Poems, de Francesco Petrarca
  • The Declaration of Independence of the United States of America
  • Hamlet, Prince of Denmark, de William Shakespeare

Invitamos a que el lector cree su propia biblioteca digital y genere sus propios poemas markovianos.

Otro proyecto similar es el desarrollado por Alexander Raichev, de Auckland, Nueva Zelanda. El lector puede acceder a esta herramienta a través de este enlace. Alexander Raichev llama a su método “Markov, a Game of Poems”, que adaptó como un ejercicio de un libro de texto sobre computación, Exercise 13.8 de Think Python, Downey 2012. En la página de internet se describe con detalle el método y se dan algunas normas para obtener resultados más interesantes.

¡No todo es rigurosidad matemática alrededor de las cadenas de Markov y sus aplicaciones, también hay tiempo para la poesía!

_____

Mario Castro Ponce (Universidad Pontificia Comillas), Manuel de León (Instituto de Ciencias Matemáticas CSIC, Real Academia de Ciencias) y Antonio Gómez Corral (Universidad Complutense de Madrid)

Etiquetas: ,
Categorias: Covid-19

Cadenas de Markov y las leyes de Mendel (II)

En esta entrada, más técnica de lo habitual, vamos a emplear uno de los problemas más clásicos y famosos de la Biología, el descubrimiento de las leyes de la herencia, para explicar a nuestros lectores el uso de las cadenas de Markov en Biología Matemática. En nuestros comentarios aparecerán el monje checo Johann Mendel y otros dos eminentes matemáticos británicos, Godfrey Harold Hardy y Ronald Aylmer Fisher.

Gregor (Johann) Mendel (Heinzendorf, 1822 – Brünn, 1884)

 

Los guisantes de Johann de Mendel

El término Leyes de Mendel fue por primera vez empleado a raíz de que el holandés Hugo de Vries, el alemán Carl Correns y el austríaco Erich von Tschermak redescubrieran, de manera independiente y casi simultánea en 1900, los postulados del monje agustino sobre la herencia, como ya mostramos en la entrada Mendel, el de los guisantes. Estos postulados están basados en los experimentos realizados entre los años 1856 y 1863 por Johann Mendel sobre la variabilidad de las plantas de guisantes, y aparecen descritos en el artículo titulado “Versuche über pflanzenhybriden” (“Experimentos sobre la hibridación de las plantas”), que presentó en dos sesiones de la Sociedad de Historia Natural de Brno en 1865 y publicó en la revista Verhandlungen des Naturforschenden Vereines in Brünn en 1866. La traducción al inglés de este trabajo forma parte del documento “Mendel’s Principles of Heredity: A Defence” (“Los Principios Mendelianos de la Herencia: Una Defensa”) escrito por el británico William Bateson en 1902 con la intención de clarificar el papel de Johann Mendel como precursor de la Genética moderna.

Johann Mendel explicó sus observaciones y su patrón de la herencia tomando como sistema modelo a los guisantes de jardín (Pisum sativum) y sus características fenotípicas, aprovechando que estas plantas tienen un rápido ciclo de vida, producen un elevado número de semillas – fáciles de catalogar por su forma (en concreto, color y rugosidad) – y se pueden reproducir por autofecundación, además de que también son fáciles de cruzar o aparear de forma controlada. En concreto, al cruzar plantas nacidas de semillas lisas con plantas nacidas de semillas rugosas, observó que las plantas híbridas obtenidas siempre generaban semillas lisas, lo cual le llevó a acuñar los términos dominante y recesivo para referirse a los rasgos “semilla lisa” y “semilla rugosa”, respectivamente. De manera semejante llegó a catalogar el rasgo “semilla amarilla” como dominante y el rasgo “semilla verde” como recesivo.

Desde un primer experimento, Johann Mendel observó que, con independencia del carácter fenotípico en estudio,

la autofecundación de las plantas nacidas desde semillas híbridas producía en la primera generación semillas que tenían bien el rasgo dominante o el rasgo recesivo en proporciones aparentemente aleatorias,

y concluyó que

las semillas con el rasgo dominante eran obtenidas aproximadamente tres veces más frecuentemente que las semillas con el rasgo recesivo.

En un segundo experimento, analizó las semillas generadas por las plantas crecidas desde semillas obtenidas en la primera generación y concluyó que

entre las plantas crecidas desde semillas de la primera generación con el carácter dominante, aquéllas que por autofecundación dieron lugar a semillas con el rasgo dominante o con el rasgo recesivo eran aproximadamente dos veces más que aquéllas que sólo daban lugar a semillas con el rasgo dominante.

Hasta este punto, poco parece haber sobre cadenas de Markov, ni tan siquiera probabilidades en nuestros comentarios sobre los trabajos de Johann Mendel, pero no nos dejemos engañar como ahora veremos.

Para hacer evidente la conexión entre la herencia de los caracteres fenotípicos y las cadenas de Markov, hacemos énfasis primero sobre los dos siguientes postulados hechos por Johann Mendel, donde aparece la noción de probabilidad:

  1. El carácter o rasgo (dominante o recesivo) de una semilla es la consecuencia de los factores ocultos, denotados por A (dominante) y a (recesivo), de manera que existen tres combinaciones posibles o factores AA, Aa y aa. Las semillas con las combinaciones AA y Aa tienen el rasgo A dominante, mientras que las semillas con la combinación aa tienen el rasgo a recesivo.
  2. Los granos de polen y los gametos transmiten sólo uno de los dos rasgos con idénticas oportunidades o probabilidades.

Como consecuencia, el cruce de dos linajes puros AA y aa conduce a híbridos con los factores Aa y el rasgo A dominante, mientras que los gametos de híbridos con los factores Aa transmiten el rasgo A con probabilidad ½ y el rasgo a con probabilidad ½.

La siguiente tabla resume los posibles resultados del proceso de autofecundación de un híbrido Aa y sus probabilidades, en función de los rasgos A y a transmitidos por los gametos masculinos (fila) y femeninos (columna):

Es sencillo comprobar la propiedad Markoviana en la evolución de los factores AA, Aa y aa en las futuras generaciones. Por ejemplo, comenzando con N semillas híbridas Aa y asumiendo que cada planta da lugar por autofecundación sólo a 4 semillas, los números medios de semillas AA(n+1), Aa(n+1) y aa(n+1) en la generación n+1 pueden evaluarse desde los correspondientes números medios en la generación anterior n:

AA(n+1) = Aa(n) + 4 AA(n),

Aa(n+1) = 2 Aa(n),

aa(n+1) = Aa(n) + 4 aa(n).

En la terminología genética moderna, los rasgos son denominados alelos y los factores son llamados genotipos.

 

Las mejoras en las leyes de la herencia de Mendel

Los biólogos de la época, recelosos de los resultados de Johann Mendel, se preguntaban por qué el rasgo dominante no se hacía más frecuente de generación en generación. El genetista británico Reginald Punnett formuló esa pregunta a uno de sus compañeros de cricket en Cambridge, el matemático Godfrey Harold Hardy, quien publicó en 1908 el artículo titulado “Mendelian proportions in a mixed population” (“Proporciones Mendelianas en una población mezclada”) con una solución del problema bajo la hipótesis de que, en el caso de una población de tamaño infinito, la elección de la pareja sexual de un individuo sería aleatoria.

Godfrey Harold Hardy (Surrey, 1877 – Cambridge, 1947)

Al igual que Johann Mendel, Godfrey Harold Hardy centró su interés en una población diploide, es decir, con dos alelos, A y a, donde A es dominante y a es recesivo, y se interesó en determinar las frecuencias p(n), 2q(n) y r(n) de los genotipos AA, Aa y aa, respectivamente, en la generación n, con p(n)+2q(n)+r(n)=1. Para ello, asumió que ninguno de los genotipos incrementaba su mortalidad o decrecía su fertilidad en comparación con los otros dos genotipos. Las frecuencias en la generación n+1 pueden computarse desde las frecuencias en la generación n, observando que un individuo elegido aleatoriamente en la generación n transmite el alelo A con probabilidad p(n)+ q(n), bien porque el genotipo es AA y el alelo A se transmite con probabilidad 1, o porque el genotipo es Aa y el alelo A se transmite con probabilidad ½; de manera análoga, el alelo a se transmite con probabilidad q(n)+r(n).

El modelo resultante, conocido como ley de Hardy-Weinberg debido a que los resultados obtenidos por Godfrey Harold Hardy fueron también derivados ese mismo año 1908 por el médico alemán Wilhelm Weinberg (Stuttgart, 1862 – Tübingen, 1937), nos conduce a una actualización de la tabla de Johann Mendel para las frecuencias de los genotipos AA, Aa y aa en la generación n+1 en función de las frecuencias de los alelos A y a transmitidos por el padre (fila) y la madre (columna).

De nuevo, es posible observar la propiedad Markoviana en las expresiones de las frecuencias de los genotipos AA, Aa y aa en la generación n+1, que vienen dadas por  


La ley de Hardy-Weinberg falla cuando se pretende capturar el fenómeno de la evolución genética en una población diploide finita, donde la tendencia aleatoria juega un papel relevante.

 

El modelo de Wright-Fisher

El estadístico y biólogo británico Ronald Aylmer Fisher y el genetista estadounidense Sewall Green Wright (Melrose, 1889 – Madison, 1969) serían los primeros en proponer un modelo matemático que incorporaba aleatoriedad en poblaciones diploides finitas sin mutación.

En el supuesto de una población diploide de tamaño N y genotipos AA, Aa y aa de los alelos A y a, el número Xn de alelos A en la generación n puede ser visto como una variable aleatoria – dado que el número total de alelos es 2N en cualquier generación, el número de alelos a en la generación n es  2N – Xn– y la sucesión de números {Xn : n {0, 1, …  }} resulta ser una cadena de Markov en tiempo-discreto sobre el espacio de estados S = {0, 1, … , 2N }  con probabilidades de transición en una etapa homogéneas en el tiempo

Esta expresión es obtenida teniendo en cuenta que los 2N alelos de la generación n+1 son obtenidos desde los 2N alelos de la generación anterior como si desarrollásemos 2N intentos independientes de Bernoulli, donde las respectivas probabilidades de obtener un alelo A (“éxito” en el intento de Bernoulli) y un alelo a (“fracaso”) son i/2N y (2N-i)/2N, en el supuesto Xn = i. Después de un número finito de generaciones, la población termina siendo homocigótica como consecuencia de que la absorción en alguno de los estados {0, 2N} es segura. En el contexto de la cadena de Markov, los estados 0 y 2N son absorbentes y equivalen a una población homocigótica de genotipos aa y AA, respectivamente, y son alcanzados en un número medio finito de generaciones.

Las probabilidades de fijación (absorción) en los alelos a (estado 0) y A (estado 2N) vienen dadas por

donde T = inf {n: Xn{0,2N}} equivale a la generación en la que, por primera vez, la población es homocigótica.

En el año 1922, Ronald Aylmer Fisher publicó el artículo titulado “On the dominance ratio” (“Sobre el cociente de dominancia”) donde combinó las leyes de Mendel y el principio de selección natural de la teoría de la evolución de Charles Darwin, explicando entonces las dos situaciones antagónicas de coexistencia de genotipos y de extinción de uno de los genotipos. Su modelo puede ser visto como una evolución del modelo de Godfrey Harold Hardy, donde se asume que los individuos con genotipos AA, Aa y aa tienen diferentes mortalidades antes de alcanzar la edad adulta.

Ronald Aylmer Fisher (Londres, 1890 – Adelaida, 1962)

Tomando p(n), 2q(n) y  r(n)  como las frecuencias de los genotipos AA, Aa y aa entre los individuos adultos de la generación n, las frecuencias de estos genotipos entre los individuos nacidos en la generación n+1 son (p(n)+q(n))2, 2(p(n)+q(n))(q(n)+r(n)) y (q(n)+r(n))2, de modo que las frecuencias de los genotipos entre los individuos adultos en la generación n+1 tienen la forma

 

donde s(n)=α(p(n)+q(n))2+2β(p(n)+q(n))(q(n)+r(n))+γ(q(n)+r(n))2, en el supuesto de que α, β y γ representen las probabilidades de que un individuo con los genotipos AA, Aa y aa, respectivamente, complete el proceso de maduración.

La ausencia de selección natural equivale a la elección α=β=γ y nos lleva a las ecuaciones escritas por Godfrey Harold Hardy.

La principal aportación de Ronald Aylmer Fisher se refiere a una expresión para el incremento entre las frecuencias alélicas de A sobre los individuos adultos de dos generaciones sucesivas, que le permitió observar que existen, al menos, dos estados estables donde las frecuencias alélicas del alelo A permanecen constantes: f = 0 (población homocigótica del genotipo aa); y f = 1 (población homocigótica del genotipo AA). Dicho de otra forma,

en una población diploide (con alelos A y a) infinita con apareamiento aleatorio sin mutación y selección natural,

(a) El alelo a desaparecerá progresivamente, en el supuesto de que el genotipo AA tenga mejores oportunidades selectivas para sobrevivir (es decir,  α>β y α>γ).

(b) Los tres genotipos AA, Aa y aa podrán coexistir permanentemente en la población cuando el genotipo Aa tenga una ventaja selectiva sobre los genotipos AA y aa (es decir,  β>α y β>γ).

En el año 1930, Ronald Aylmer Fisher publicaría el libro “The Genetical Theory of Natural Selection” (“La Teoría Genética de la Selección Natural”) con una amplia repercusión en la comunidad científica. Junto a Sewall Green Wright y el genetista y biólogo evolutivo británico John Burdon Sanderson Haldane (Oxford, 1892 – Bhubaneswar, 1964), Ronald Aylmer Fisher es hoy considerado uno de los fundadores de la Genética de Poblaciones como la corriente científica que concilia la metodología biométrica del matemático y estadístico británico Karl Pearson (Londres, 1857 – Surrey, 1936) con la Genética Mendeliana dirigida por William Bateson. Sin embargo, no hay que olvidar quién y cómo comenzó esta historia, con el monje Johann Mendel experimentando con guisantes en los jardines de su abadía.

Es el momento de concluir esta entrada, atípica por lo denso de sus contenidos, donde las matemáticas se mezclan con la genética. Más detalles matemáticos, todavía a nivel divulgativo, sobre este apasionante recorrido desde las leyes de la herencia de Johann Mendel hasta la actualidad pueden encontrarse en el capítulo 4 del libro Las Matemáticas de la Biología (Editorial Catarata, 2019). El lector ávido de detalles sobre el uso de cadenas de Markov, en particular, en Epidemiología quizá quiera contactar con los autores, quienes estarán encantados de compartir con él materiales sencillos sobre su investigación matemática.

_____

Manuel de León (Instituto de Ciencias Matemáticas CSIC, Real Academia de Ciencias) y Antonio Gómez Corral (Universidad Complutense de Madrid)

Etiquetas: , ,
Categorias: Covid-19

La primera matemática, la primera poeta

La verdadera mujer que posee una sabiduría extraordinaria

Consulta una tabla de lapislázuli

Ella da consejos a todas las tierras,

Ella mide los cielos, ella coloca las cuerdas

Para medir la tierra.

¡Nisaba, alabado sea!

Enheduanna, Himno a Nisaba, diosa de las artes de la escritura y los cálculos matemáticos

 

Leyendo ese espectacular libro que ha escrito Irene Vallejo, El infinito en un junco, me reencuentra con un personaje histórico al que la autora señala como el primer escritor de la historia que firma con su propio nombre; se trata de Enheduanna (2285–2250 a.C.), hija del hija del Rey Sargón I, que vivió en la ciudad-estado de Ur, en el sur de la región sumeria. Pero también se la puede considerar la primera matemática conocida de la historia. ¿Qué mejor que su figura para conmemorar este 12 de mayo, Día Internacional de la Mujer Matemática!

Enheduanna

Las tablillas encontradas en las excavaciones contienen una colección de himnos conocida como “Himnos a los Templos Sumerios”, himnos que tuvieron una gran aceptación en el ámbito religioso. También destaca su obra “La exaltación de Inanna”, la diosa que ella decía la inspiraba directamente poniendo en su cabeza los versos que luego escribía. No podemos ignorar el paralelismo con el genio indio Ramanujan, al que la diosa Namagiri inspiraba sus asombrosas fórmulas matemáticas.

 

Los Himnos del Templo

Enheduanna fue la primera mujer que llevó el título de “EN”, que significa “Gran Sacerdote”, título que se añadía a su nombre que significa “adorno del cielo”. Su nombramiento fue una decisión directa de su padre, Sargón, con lo que este se garantizaba el apoyo político en el sur de Sumeria. Continuó con su cargo en la ciudad de Ur, aunque tras algunas convulsiones políticas fue expulsada un tiempo, y reinstaurada finalmente.

Pero Enheduanna también desarrolló muchas actividades relacionadas con las matemáticas. Como Suprema Sacerdotisa, tenía que encargarse de los cálculos para el calendario astronómico, tema en el que los sumerios fueron auténticos expertos. No sólo eso, su misión también comprendía el establecimiento de los límites de las propiedades o las construcciones de ingeniería civil (murallas defensivas de la ciudad, canales de irrigación, construcción de templos).

Recuerda Irene Vallejo que al descifrar las tablillas que Enheduanna había escrito (unas 4500 líneas en total), y admirar su escritura “brillante y compleja”, la apodaron la “Shaskepeare de la literatura sumeria”.  Su influencia fue muy grande, de hecho, las tablillss con sus obras fueron copiadas una y otra vez durante casi quinientos años.

 

Excavaciones en la ciudad de Ur

Una de las curiosidades sobre Enheduana es su consciencia de estar escribiendo no solo para su tiempo, sino también para la posteridad. Ella misma escribe: “El compilador de las tablas fue En-hedu-ana. Mi Señor, algo ha sido creado que nadie ha creado antes.” Su trabajo es 1700 años anterior al de Safo, 1500 al de Homero, 2000 años antes de Euclides.

____________

Manuel de León (CSIC, Fundador del ICMAT, Real Academia de Ciencias, Real Academia Canaria de Ciencias, Real Academia Galega de Ciencias).

Etiquetas: , ,

Andrei Markov, cadenas para luchar contra las epidemias (I)

La sección de “El Tiempo” ocupa una parte destacada en los telediarios de todas las cadenas. Esta sección, aparte de contarnos el tiempo que ha hecho hoy nos ha ayudado también a comprender conceptos como “probabilidad de lluvia” o la imposibilidad de saber un lunes si el domingo podremos ir a la playa. En el caso de las epidemias, otro fenómeno muy difícil de explicar, la incertidumbre de cuándo llegará (o llegó) el pico y cuánta gente va a ingresar en el hospital la semana que viene invita a una variedad de modelos matemáticos llamados cadenas de Markov. En nuestro objetivo de acercar a la sociedad los instrumentos matemáticos que nos ayudan a enfrentar la actual pandemia, nos hacemos hoy eco de la figura de un matemático excepcional, Andréi Andréyevich Márkov, el inventor de las cadenas que llevan su nombre. En esta primera entrada hablaremos de sus logros generales, mientras que en otras centraremos la atención sobre las aplicaciones a la biología y, en particular, a la epidemiología.

Andrei Markov nació en Riazán, Rusia, el 14 de junio de 1856. Su padre, hijo de un diácono rural, estudió en un seminario, consiguiendo posteriormente un empleo en el Departamento Forestal en San Petersburgo.  Andrei Markov era el mayor de los dos hijos varones en una familia numerosa; su hermano menor, Vladimir, muerto prematuramente de tuberculosis, había conseguido en un corto espacio de vida una gran reputación como buen matemático.

Andrei Markov fue un niño con una salud delicada, llevando muletas hasta los diez años. En la secundaria destacó en matemáticas, llamando ya entonces la atención de sus profesores. Era obvio que iba a estudiar esta materia y así lo hizo en la prestigiosa facultad de Física y Matemáticas de la Universidad de San Petersburgo, participando en los seminarios de un matemático tan brillante y con capacidad de liderazgo como era Chebyshev, es decir, Pafnuti Lvóvich Chebyshov (Okátovo 1821 – San Petersburgo 1894).

Andrei Markov se graduó en 1878 y comenzó su trabajo de máster sobre teoría de números (aproximación racional), una tesis que fue muy alabada y considerada uno de los mejores resultados en el tema en esa época. Esto le permitió seguir su carrera como profesor de la universidad y conseguir el doctorado en 1884. En 1886 se convirtió en adjunto de la Academia de Ciencias de San Petersburgo a propuesta de Chebyshev, aunque siguió manteniendo su vinculación con la universidad.

Fue en 1900 cuando Andrei Markov comenzó a investigar en la teoría de probabilidad, tema en el que obtuvo resultados muy brillantes, destacando el descubrimiento de las cadenas que llevan su nombre. Chebyshev, Kolmogorov y Markov son los grandes nombres que usaron elementos de la teoría de la medida para convertir la teoría de probabilidad en una de las áreas más rigurosas y respetadas de las matemáticas.

Andrei Markov no trabajó pensando en las posibles aplicaciones prácticas de las cadenas de Markov y, de hecho, la única que hizo fue a la literatura, contando vocales y consonantes, quizás por su gran amor a la poesía (de esto hablaremos en una próxima entrada). Sin embargo, como mostraremos a continuación, las aplicaciones de las cadenas de Markov son de gran utilidad práctica.

 

Cadenas de Markov

De manera intuitiva, una cadena de Markov en tiempo discreto (por sencillez) es un proceso estocástico que evoluciona en tiempo discreto o etapas y tiene la propiedad Markoviana que dice que “el futuro depende de lo que pasa en el presente, pero no del pasado estricto”.  Tendremos unos estados E1, E2, E3, …, de manera que se pasa de uno a otro por una matriz de transición en una etapa. La cardinalidad del conjunto de estados es numerable, es decir, es un conjunto finito o con la misma cardinalidad que los números naturales. La matriz de transición en una etapa tiene como elementos a las probabilidades de paso de un estado a otro cuando el proceso evoluciona desde una etapa n a la etapa siguiente n+1. Por lo tanto, está compuesta de números reales positivos entre 0 y 1, de manera que la suma de cada fila o columna, según la disposición de los estados inicial (en la etapa n) y final (en la etapa n+1), es 1.

Este es un ejemplo muy sencillo. En una unidad de cuidados intensivos, los pacientes se clasifican atendiendo a su estado: crítico, serio y estable. Cada día se actualizan las clasificaciones de acuerdo con la evolución histórica de los pacientes admitidos en la unidad hasta ese momento, de modo que las frecuencias relativas de cambios de estado de un paciente son:

 

En la disposición anterior, las entradas por filas están asociadas al estado del paciente en el día n y las columnas se refieren a su estado en el día n+1. Entonces, podríamos tomar como matriz de transición en una etapa

0.6   0.3   0.1

0.4   0.4   0.2

0.1   0.4   0.5

donde las filas suman 1. Una representación gráfica como la siguiente nos puede ayudar a entender mejor la dinámica de cambio entre estados de un paciente en dos días consecutivos:

Con un gráfico como este podemos calcular probabilidades en más de una etapa. Por ejemplo, la probabilidad de pasar del estado crítico C a estable E en dos días. Hay tres posibles caminos, dependiendo del estado C, S y E del paciente después del primer día:

C –> C –> E

C –> S –> E

C –> E –> E,

así que sólo tenemos que multiplicar las probabilidades y sumar de la forma

0.6 x 0.1 + 0.3 x 0.2 + 0.1 x 0.5 = 0.17

Es decir, un paciente ingresado en estado crítico C evolucionará al estado estable E en dos días en un 17% de las ocasiones.

Andrei Markov era una persona comprometida políticamente en una época, principios del siglo XX, de transición agitada de Rusia. Por ejemplo, cuando a Maksim Gorky se le retiró su nombramiento como académico de la Academia de Ciencias por razones políticas, protestó enérgicamente, y en 1913 se negó a secundar la celebración del tercer centenario del zarismo para celebrar, por su cuenta, el segundo aniversario de la Ley de los Grandes Números. Cuando triunfó la Revolución Rusa de 1917, Andrei Markov solicitó que le enviaran a un pequeño pueblo del interior, Zaraisk, a enseñar en la escuela local de manera gratuita y así contribuir a la mejora de la pobre sociedad rural. Aquejado de graves problemas de salud, falleció en San Petersburgo el 20 de julio de 1922, a los 66 años de edad, debido a la infección generalizada producida por una de las varias operaciones quirúrgicas de rodilla a las que fue sometido.

 

Tumba de A. Markov en San Petersburgo

_____

Mario Castro Ponce (Universidad Pontificia Comillas), Manuel de León (Instituto de Ciencias Matemáticas CSIC, Real Academia de Ciencias) y Antonio Gómez Corral (Universidad Complutense de Madrid)

Etiquetas: , , ,
Categorias: Covid-19

El paraíso de Cantor

Aus dem Paradies, das Cantor uns geschaffen, soll uns niemand vertreiben können.

Nadie será capaz de expulsarnos del paraíso que Cantor creó para nosotros.

David Hilbert, en una conferencia en Münster a la Sociedad Matemática Alemana el 4 de junio de 1925.

 

Georg Ferdinand Ludwig Philipp Cantor fue un matemático de ascendencia danesa-alemana, aunque nació en San Petersburgo, el 3 de marzo de 1845: Cantor fue uno de los matemáticos más geniales del siglo XIX y comienzos del XX, al que le debemos la creación de los fundamentos modernos de las matemáticas.  Cantor estudió matemáticas en Zürich, trasladándose después a la Universidad de Berlín, donde tuvo profesores de la talla de Ernst Kummer, Karl Weierstrass y Leopold Kronecker. Con 27 años se convirtió en catedrátrico de la Universidad de Halle (también llamada Martín Lutero).

 

Georg Cantor en 1970

Entre 1874 y 1884, Cantor trabajó sobre la teoría de conjuntos.  Hasta entonces, no había una teoría formal, y el concepto de infinito era una noción más filosófica que matemática. Cantor probó que había diferentes tipos de conjuntos infinitos: por ejemplo, el de los números naturales (el aleph 0) era diferente al de los números reales (el continuo). La manera de distinguirlos fue con el concepto de cardinal. Los conjuntos pueden ser finitos o infinitos, y estos últimos numerables (su cardinal o número de elementos es el de los naturales) o no numerables (en caso contrario). Por ejemplo, el conjunto de los  números pares es numerable (se puede establecer una correspondencia uno a uno con los naturales, simplemente considerando el doble de cada número natural). Y lo mismo ocurre, aunque nos sorprenda, con los números racionales (las fracciones). Pero ya no pasa así con los irracionales (los no racionales) y con todos los números reales (racionales e irracionales).

Como recordatorio, digamos que un número racional es el que se puede escribir como una fracción de números enteros. Entre los irracionales, podemos distinguir entre los algebraicos (aquellos que se obtienen como una solución de una ecuación algebraica, como ocurre con el número aúreo), y trascendentes, cuando no, como el número π o el número e.

Cantor fue mucho más allá. Construyó (o descubrió, a gusto del lector), toda una aritmética de números infinitos, que llamó transfinitos. Estos números seguían unas reglas similares a las de los números naturales. Uno de sus logros fue probar que había el mismo número de puntos en un segmento que en un cuadrado o en cubo construidos con ese segmento. Cantor le escribió a Dedekind: “Lo veo, pero no me lo creo”.

Otro de los logros de Cantor fue probar que el cardinal del conjunto de partes de un conjunto era estrictamente mayor que el del conjunto dado, algo evidente en conjuntos finitos, pero no tanto en los infinitos. Esto le llevó a formular lo que se llama la “hipótesis del continuo”: no hay ningún número entre aleph 0 (representado por el símbolo ℵ0) y el continuo (que es la cantidad de números reales), o dicho con más rigor, el aleph siguiente al aleph 0, el aleph 1 ( ℵ1 ) es igual al continuo. David Hilbert propuso esto como uno de los 23 problemas que expuso en su célebre conferencia en el Congreso Internacional de Matemáticos de París en 1900. La hipótesis del continuo llevó a Kurt Gödel en 1940 a probar que había proposiciones que no se podían probar o negar en términos de la aritmética (el famoso teorema de incompletitud). En 1963, Paul Cohen volvió sobre el tema y encontró que la aritmética era consistente tanto si admitimos la hipótesis del continuo como si no (y recibió una medalla Fields por ello).

Hasta entonces, predominaban todavía las nociones de infinito “en potencia” y “en acto” de Aristóteles, que llegaba a afirmar: “el número no puede ser infinito, ya que éste, así como todo lo que tiene número, puede contarse, y, si puede contarse, no es infinito”. Lo que Cantor proponía era una auténtica revolución del pensamiento.

Leopold Kronecker

Las reacciones  a los resultados de Cantor fueron violentas. El propio Leopold Kronecker (su director de tesis) llegó a decir de Cantor que era “un charlatán, un renegado y un corruptor de la juventud”, como si se se tratara de un nuevo Sócrates. El mismo Wittgenstein lamentó que las matemáticas se vieran dirigidas por “el pernicioso idioma de la teoría de conjuntos.” Pero a la vez, muchos de sus colegas le demostraron una admiración sin límites, especialmente tras su conferencia en el primer Congreso Internacional de Matemáticos, celebrado en Zürich en 1897.

Las ideas de Cantor fueron vistas por algunos intelectuales de la época como un desafío a la infinitud de Dios, y fue acusado de panteísmo, él, que era un devoto luterano. Su visión teológica se confundía con la matemática, y creía que esos resultados eran inspirados en su mente por el propio Dios.

No es de extrañar que Cantor sufriera depresiones muy fuertes a lo largo de su vida, con varios internamientos en hospitales psiquiátricos. Finalmente, falleció el 6 de enero de 1918, en el sanatorio donde había pasado el último año, de un ataque al corazón. Durante la Primera Gran Guerra sus condiciones de vida habían sido muy precarias.

Placa conmemorativa: “En este edificio nació y vivió desde 1845 a 1854 el gran matemático y creador de la teoría de conjuntos Georg Cantor”, San Petersburgo

Como decía Hilbert, nadie nos podrá quitar ese paraíso increíble que Cantor creó para la humanidad, y a pesar de todos sus críticos, su trabajo pervive, porque como él decía: “La esencia de las matemáticas reside en su libertad”.

____________

Manuel de León (CSIC, Fundador del ICMAT, Real Academia de Ciencias, Real Academia Canaria de Ciencias, Real Academia Galega de Ciencias).

Etiquetas: , , , ,
Categorias: General