web analytics

Posts etiquetados con ‘cadenas de Markov’

Las matemáticas de la pandemia

Nos hacemos eco en Matemáticas y sus fronteras de la más reciente publicación de la colección ¿Qué sabemos de?, una empresa conjunta del Consejo Superior de Investigaciones Científicas y la Editorial Catarata. Se trata de Las matemáticas de la pandemia, obra de Manuel de León y Antonio Gómez Corral.

 

Las matemáticas juegan un papel destacado en la comprensión de las pandemias y en cómo combatirlas; nos ayudan a prevenirlas, a predecirlas y a controlarlas. De hecho, la emergencia de SARS-CoV-2 ha llenado los medios de términos técnicos cuyo origen y correcta interpretación están ligados a conceptos matemáticos.

El libro fue surgiendo desde la necesidad de explicarle al ciudadano de dónde salían esos conceptos que los medios y los políticos repetían una y otra vez: aplanar la curva, factor de reproducción, inmunidad de rebaño. Todos esos conceptos vienen de las matemáticas, pero están, como ocurre muchas veces con nuestra disciplina, ocultos.

Por ejemplo, el modelo SIR (Susceptibles, Infectados, Recuperados), surgido de la lucha contra la malaria, predice la evolución de los contagios mediante ecuaciones diferenciales;  en concreto, las que aparecen en la portada del libro junto a una descripción gráfica de cómo los individuos transitan entre los tres compartimentos o subpoblaciones básicos de susceptibles, infectados o recuperados. Es un modelo conceptualmente sencillo que debemos a los trabajos pioneros de Ronald Ross, Alexander McKendrick y William Kermack. Por supuesto, este modelo ha sido mejorado con nuevos compartimentos para incluir mortalidad, asintomáticos, periodos de cuarentena e incluso la vacunación anhelada en estos momentos frente al coronavirus SARS-CoV-2.

Pero las ecuaciones diferenciales no son los únicos instrumentos: las series temporales de una gran utilidad para conocer la evolución de una epidemia; o los procesos de Markov que, desde la actualidad, anticipan el futuro. Y decir que su inventor, Andrey Markov sólo tenía en mente su aplicación al acalorado debate que mantenía en aquellos momentos con el también matemático Pavel Nekrasov sobre la existencia o no del libre albedrío. Markov hizo su análisis sobre el Eugene Onegin de Alexander Pushkin.

También analizamos las leyes de Mendel a la luz de de las cadenas de Markov, y recordamos una aportación poco conocida para los matemáticos pero de gran relevancia de Godfrey Harold Hardy a la genética (el principio de Hardy–Weinberg). O los procesos de Galton-Watson, surgidos al analizar la potencial desaparición de los apellidos de la aristocracia inglesa, y que constituyen los procesos más famosos y aplicados a la transmisión vertical de una enfermedad o de la herencia genética entre padres e hijos. Y, cómo no, los problemas de la distancia social en el mundo pequeño, con la aportación de la teoría de redes a la transmisión de una epidemia.

Estos instrumentos matemáticos nos hacen saber en la práctica cuándo se producirá el número máximo de contagios para alertar a los hospitales o evitar desplazamientos y reuniones, decidir si una vacuna será útil o no, o conocer las reglas del contagio y la construcción de cortafuegos para proteger a la ciudadanía.

Si hemos conseguido acercar todo esto a los lectores para que comprendan mejor lo que estamos viviendo con esta pandemia (que no es la primera ni, desgraciadamente, será la última que padezca la humanidad), serán ellos los que nos los harán saber.

 

Sobre los autores

Manuel de León

Matemático, profesor de investigación del CSIC y fundador del Instituto de Ciencias Matemáticas. Ha sido miembro del Comité Ejecutivo de la Unión Matemática Internacional (IMU) y del Consejo Internacional de la Ciencia (ICSU). Es académico numerario de la Real Academia de Ciencias y correspondiente de la Real Academia Canaria de Ciencias y la Real Academia Galega de Ciencias.

 

Manuel de León

Antonio Gómez Corral

Matemático y profesor titular de la Universidad Complutense de Madrid. Sus intereses científicos se centran en las aplicaciones de los procesos estocásticos a problemas biológicos.

 

Antonio Gómez Corral

_________

Manuel de León (Instituto de Ciencias Matemáticas CSIC, Real Academia de Ciencias) y Antonio Gómez Corral (Universidad Complutense de Madrid).

 

Etiquetas: , , , ,
Categorias: Covid-19

La ley de los grandes números y el libre albedrío

Bajo el nombre de ley de los grandes números son conocidos aquellos resultados del Cálculo de Probabilidades sobre la estabilidad a largo plazo de las realizaciones de una familia de variables aleatorias. Tradicionalmente, la primera ley de los grandes números es atribuida al matemático suizo Jacob Bernoulli (Basel, 1654 – Basel, 1705), aunque su demostración fuera publicada en 1713 por su sobrino Nicholas como parte de su libro póstumo Ars Conjectandi (El Arte de Hacer Conjeturas). Formalmente, se refiere a una sucesión de variables aleatorias independientes e idénticamente distribuidas con varianza finita y asegura que el promedio de las n primeras observaciones (variables aleatorias) se acerca a la media teórica cuando el número n de repeticiones tiende hacia infinito.

 

Para llevar la contraria a algunos de nuestros colegas, tenemos la satisfacción de puntualizar aquí que, previamente a la contribución de Jacob Bernoulli, el matemático italiano Gerolamo Cardano (Pavia, 1501 – Roma, 1576) ya había enunciado esta ley, de manera más intuitiva, en el sentido de que repetir un ensayo muchas veces mejora la probabilidad de un suceso.

La relación con la definición frecuentista de probabilidad

Pongamos un ejemplo sencillo. Supongamos que pretendemos conocer la probabilidad del suceso “obtener 3” en el lanzamiento de un dado equilibrado y que, para ello, repetimos una y otra vez, de manera independiente y bajo idénticas condiciones, el lanzamiento de un dado registrando un 1 si se observa como resultado “3”, y un 0 en el caso de obtener otros resultados; es decir, la variable aleatoria asociada a cada repetición toma los valores 1 y 0 con probabilidades 1/6 y 5/6, respectivamente. La frecuencia de aparición del resultado “3” durante los primeros n lanzamientos equivale al cociente entre la suma de los 1’s asociados a los n lanzamientos y el número n de lanzamientos. Cuando el número de lanzamientos es suficientemente grande, la aparición porcentual del suceso “obtener 3” será muy cercana a la probabilidad teórica 1/6 del suceso, gracias a que la media de la variable aleatoria asociada a un único lanzamiento (es decir, 1 x 1/6 + 0 x 5/6) coincide con la probabilidad 1/6 del suceso.

Jakob Bernouilli

Dos tipos de convergencias estocásticas de sucesiones de variables aleatorias – la convergencia en probabilidad (ley débil) y la convergencia casi segura (ley fuerte) – permiten dar el aspecto formal moderno a un resultado tan famoso que, hasta la década de 1930, fue empleado como definición frecuentista de la noción de probabilidad de un suceso.

A partir de 1930, la definición axiomática de espacio de probabilidad, formulada por el matemático ruso Andrey Nikolaevich Kolmogorov (Tambov, 1903 – Moscú, 1987) encajaría los problemas probabilísticos en el contexto de la Teoría de la Medida. Ese hecho resultó crucial y ha significado el desarrollo de un importante número de resultados que, inspirados en las primeras leyes de los grandes números, están orientados hacia la generalización de la hipótesis de independencia entre variables aleatorias, entre otros aspectos.

Una lucha que transcendió más allá de las matemáticas

El teorema de Jacob Bernouilli fue conocido como el “Teorema de Oro” o “Teorema de Bernouilli” hasta que, en 1837, Simeon Denis Poisson (Loiret, 1781-Sceaux, 1840) lo citó con su nombre actual, que es el que ha prevalecido hasta nuestros días. Posteriormente, Chebyshev, es decir, Pafnuti Lvóvich Chebyshov (Okátovo, 1821 – San Petersburgo, 1894) publicó una nueva prueba que su discípulo Andrei Markov mejoró notablemente.

 

Pavel Nekrasov

Lo que no es tan conocido en la historia de las leyes de los grandes números es la polémica que Andrei Markov mantuvo con su colega matemático Pavel Nekrasov (1853 – 1924), de la Universidad de Moscú, desde 1905 en San Petersburgo.

Pavel Nekrasov había estudiado primero Teología en un seminario ortodoxo y fue uno de los matemáticos rusos influenciados por la religión, lo que le provocó muchos problemas a pesar de que, tras la Revolución de Octubre, intentara sin mucho éxito una aproximación al marxismo.

La disputa entre Andrei Markov y Pavel Nekrasov se desarrolló en torno a la ley de los grandes números. La demostración dada por Pavel Nekrasov se basaba en la hipótesis de independencia entre los sucesos aleatorios (en el anterior ejemplo, cada vez que lanzo el dado se asume la independencia entre los sucesos observados), mientras que Andrei Markov probó que esa hipótesis no era necesaria. En otras palabras, el teorema era cierto incluso cuando hubiese dependencia entre las variables aleatorias (bajo ciertas condiciones).

Andrei Markov despreciaba el trabajo de Pavel Nekrasov diciendo que sus obras “eran un abuso de las matemáticas”. Es evidente que no había mucha amistad entre ellos, aunque para entender mejor la agresividad de estos comentarios tendríamos que destacar que Andrei Markov no era precisamente conocido por ser un “hombre de paz” y que, por el contrario, era de un carácter molesto, incluso con sus amigos, y despiadado con sus rivales.

Pero el fondo de la cuestión tenía trasfondo teológico porque la pelea versaba sobre la existencia o no del libre albedrío. Pavel Nekrasov y Andrei Markov, como la mayoría de los matemáticos rusos, creían que las matemáticas afectaban a la religión, pero sus aproximaciones y conclusiones eran opuestas. Si por un lado Pavel Nekrasov era zarista y ortodoxo, por el otro lado Andrei Markov era antizarista y ateo.

La cuestión era:

¿Podía la teoría de probabilidades dar una respuesta a esta cuestión de si tenemos libertad en nuestros actos o están estos predeterminados por Dios?

Según Pavel Nekrasov, la ley de los grandes números no era capaz de explicar  las regularidades estadísticas observadas en la vida social. En concreto, argumentaba que los actos voluntarios tenían que ser considerados como eventos independientes desde el punto de vista de la probabilidad. Así que la gente actuaba con libre albedrío, de acuerdo con la doctrina ortodoxa.

Mostrando su disconformidad con esta visión, Andrei Markov se lanzó a buscar un ejemplo en el que se observara dependencia y, a pesar de ello, se cumpliera la ley de los grandes números. El ataque a los argumentos de su rival fue el estudio del poema en verso Eugene Onegin de Alexander Pushkin, que dio lugar al descubrimiento de las cadenas de Markov, tal y como hemos descrito en una de nuestras recientes entradas.

Como hemos visto, las relaciones de Andrei Markov con la iglesia ortodoxa no eran muy buenas. De hecho, cuando Leon Tolstoi fue excomulgado, Andrei Markov pidió el mismo trato. Le fue concedido de manera inmediata.

_____

Manuel de León (Instituto de Ciencias Matemáticas CSIC, Real Academia de Ciencias) y Antonio Gómez Corral (Universidad Complutense de Madrid)

Etiquetas: , , ,
Categorias: Covid-19

La propagación de una epidemia usando cadenas de Markov (IV)

Las cadenas de Markov se han revelado de una enorme utilidad en numerosos campos, en particular, en la predicción y el control del desarrollo de una epidemia. En esta entrada vamos a considerar dos situaciones diferentes, referidas al virus VIH del SIDA y al virus SARS-CoV-2 de la Covid-19, analizadas mediante dos modelos sencillos.

Andrey Markov

Como habíamos comentado en entradas anteriores, una cadena de Markov es un proceso estocástico o conjunto de variables aleatorias (en cantidad discreta o continua, según el contexto) caracterizadas por la propiedad Markoviana, es decir, se refleja que el valor o estado de la variable asociada a un instante concreto de tiempo determina el siguiente estado del sistema en estudio, pero éste no depende de los estados asociados a las variables aleatorias anteriores. En otras palabras, “el futuro depende del pasado, pero sólo a través del presente”.

Las aplicaciones de las cadenas de Markov en el estudio de epidemias se desarrollan en paralelo a aquéllas realizadas desde el uso de ecuaciones diferenciales. El lector habitual de este blog puede observar ese paralelismo en dos de nuestras recientes entradas. En concreto, el modelo SIR en la entrada Las matemáticas del coronavirus Covid-19 es construido en el contexto determinístico, mientras que nuestros comentarios en la entrada Las matemáticas contra la malaria y el modelo SIR destacaban el papel crucial de Anderson Grey McKendrick en la formulación estocástica del modelo SIR.

Es importante incidir sobre las diferencias fundamentales entre el mundo determinista y el mundo estocástico, tanto para identificar la herramienta matemática usada como para entender el objeto en estudio. A pesar de que hablamos en ambos casos de ecuaciones diferenciales, éstas son concebidas de manera diferente:

  • En el contexto determinista, las ecuaciones diferenciales regulan la evolución de los números de susceptibles, de infectados y de recuperados – equivalentemente, sus proporciones – en cada instante de tiempo t, concibiendo estos números como funciones de t (el tiempo), de modo que cada uno de estos números es una función real de variable real.
  • En el contexto estocástico, las ecuaciones diferenciales involucran a la distribución de probabilidad conjunta de los números de susceptibles, de infectados y de recuperados en el instante de tiempo t, concibiendo estos números como variables aleatorias y tenemos, en el caso del modelo SIR, tres variables aleatorias asociadas (los números de susceptibles, infectados y recuperados) a cada instante de tiempo t.

Como consecuencia de lo anterior, la solución del sistema de ecuaciones diferenciales en un contexto determinista permite dibujar los números de susceptibles, de infectados y de recuperados en función del tiempo y la curva representando a uno de estos números, por ejemplo, el número de infectados I(t) en el instante t, sobre unos ejes cartesianos es única como función real de t. Por el contrario, cuando se resuelve el sistema de ecuaciones diferenciales en el contexto estocástico se obtiene la distribución de probabilidad conjunta de los números de susceptibles, de infectados y de recuperados en cada instante de tiempo t. Si, por ejemplo, nos centramos en el número de infectados I(t) en el instante t, entonces es posible dibujar la probabilidad de que I(t) = i como una curva como función de t, para cada valor i entre 0, 1, …, N, siendo N el tamaño total de la población. Esas curvas, y tenemos una para cada valor i, expresan cómo de verosímiles son cada uno de los valores posibles de la variable aleatoria I(t). Informalmente hablando, esto equivale a lo siguiente:

Si fuéramos capaces de reproducir un número n grande de situaciones prácticas de la propagación de una epidemia de tipo SIR entre los individuos de una población y contabilizásemos, en un instante de tiempo t concreto, la frecuencia relativa de aparición de cada valor i entre esas n situaciones, esas frecuencias relativas serían una estimación de la probabilidad de que I(t) = i, tanto más precisa cuanto mayor sea el número grande n de situaciones observadas.

Andrey Kolmogorov

En este punto, la llave que formaliza el comportamiento asintótico que, cuando n tiende hacia infinito, subyace en nuestro comentario es uno de los resultados fundamentales de la Teoría de la Probabilidad moderna, las leyes de los grandes números, que permiten acceder a la definición axiomática de probabilidad – formulada por el matemático ruso Andrey Nikolaevich Kolmogorov (Tambov, 1903 – Moscú, 1987) – desde la noción de probabilidad frecuentista vigente hasta principios de 1930. Para ello es necesario aludir a la convergencia en probabilidad (ley débil) o a la convergencia casi segura (ley fuerte).

Una vez hecha, quizás no muy brevemente, esta puntualización sobre modelos deterministas versus modelos estocásticos, nos centramos en el contexto estocástico y comentamos sobre dos modelos de epidemias basados en cadenas de Markov. Hemos usado dos artículos científicos en los que el lector interesado en profundizar más allá de este blog podrá encontrar más detalles y bibliografía.

 

La epidemia del VIH/SIDA

En el artículo titulado “Modelo estocástico para la epidemia del VIH/SIDA”, de Erick Manuel Delgado-Moya y Aymée Marrero-Severo, se construye una sencilla cadena de Markov de la siguiente forma:

Se definen, como en las variantes del modelo SIR, cuatro posibles estados para un individuo de la población en cuestión: S (susceptible), I (infectado), N (individuo muerto por muerte natural) y E (individuo muerto a causa de la enfermedad). Como unidad de tiempo se emplea el año, generando entonces una cadena de Markov en tiempo discreto cuando el estado de un individuo es registrado, por ejemplo, el día 1 de marzo de cada año, si éste se sometiera a pruebas diagnósticas con una periodicidad anual. Las probabilidades asociadas a la evolución del estado de un individuo entre dos etapas consecutivas, es decir, desde una revisión diagnóstica y la siguiente, se denotan por

α: probabilidad de mantenerse en el estado de susceptible.

β: probabilidad de mantenerse en el estado de infectado.

μ: probabilidad de muerte natural.

γ: probabilidad de, estando en el estado susceptible, pasar al estado de infectado.

ε: probabilidad de muerte por la enfermedad, dado que está en el estado infectado.

 

Debemos recordar que, para obtener una matriz de transición, se deben cumplir las relaciones

α+γ+μ= 1   y  β+μ+ ε = 1.

Las probabilidades anteriores están ligadas a las transiciones

de modo que la matriz de transición viene dada por

 

Sin entrar en los detalles del estudio de Erick Manuel Delgado-Moya y Aymée Marrero-Severo, una cuestión interesante está asociada a cómo influir para mejorar los resultados en el tratamiento terapéutico de un paciente. Tendríamos, por tanto, que influir sobre el parámetro ε, que se suele parametrizar como una función o índice de eficacia. Claro que, si reducimos la mortalidad con el tratamiento, también podríamos estar contribuyendo a aumentar el número de infectados.

Ciclo de replicación del virus del SIDA

Surge entonces un interesante problema vinculado al control del número de infectados que, en el caso del SIDA, se puede abordar desde la abstinencia, la reducción de las prácticas sexuales o el uso de barreras profilácticas (preservativos), así como desde los beneficios de un adecuado tratamiento terapéutico. Como un procedimiento alternativo al realizado por los autores, mencionamos que es posible abordar el problema de control – resultante desde la introducción de costes – usando la teoría de la decisión Markoviana que combina cadenas de Markov con técnicas de Optimización Matemática.

La lucha contra el coronavirus SARS-CoV-2 de la Covid-19

Describimos ahora, de manera concisa, el modelo diseñado en el reciente artículo “COVID-19: Estimating spread in Spain solving an inverse problem with a probabilistic model”, de Marcos Matabuena, Carlos Meijide-García, Pablo Rodríguez-Mier y Víctor Leborán. Con nuestros comentarios no pretendemos reproducir su contenido, sino poner de manifiesto cómo es posible partir de un modelo sencillo, basado en una cadena de Markov, y generar una variante más avanzada prescindiendo de los principios Markovianos.

Previamente, es obligado hacer dos observaciones necesarias para entender cómo describir una cadena de Markov en tiempo continuo desde elementos más sencillos. En concreto, una cadena de Markov en tiempo continuo, denotada por {X(t): t0}, podemos describirla a través de combinar dos elementos:

  • La sucesión de estados visitados, {Xn: n=0,1,…}, que resulta ser una cadena de Markov en tiempo discreto, denominada cadena encajada, y tiene una matriz de transición específica.
  • La sucesión de tiempos de permanencia en los estados visitados que, en el supuesto de que el proceso acceda al estado i, implica que el tiempo de permanencia en ese estado es una variable aleatoria exponencial de parámetro α(i), de manera que el tiempo medio de permanencia en el estado i es 1/α(i), y no depende de los estados anteriormente visitados antes de acceder a i, ni del estado que se visitará cuando el proceso abandone i.

El lector avanzado dentro de la teoría de procesos estocásticos observará que la anterior descripción se refiere a una cadena de Markov en tiempo continuo regular y no de cualquiera, pero esta descripción es suficiente para nuestro objetivo en este ejemplo.

En este caso, el modelo de Marcos Matabuena, Carlos Meijide-García, Pablo Rodríguez-Mier y Víctor Leborán contiene las siguientes variables:

S(t):  número de individuos susceptibles en el instante t

I1(t): número de individuos infectados que están incubando el virus en el instante t

I2(t):  número de individuos infectados que han pasado el periodo de incubación, pero no muestran síntomas de la enfermedad en el instante t

I3(t):  número de individuos infectados que han pasado el periodo de incubación y presentan síntomas en el instante t

R1(t): número de individuos recuperados que son todavía capaces de infectar a otros en el instante t

R2(t): número de individuos recuperados que no son capaces de infectar a otros en el instante t

M(t): número de fallecidos acumulados hasta el instante t

Entonces, I(t) = I1(t) + I2(t) +I3(t) representa el número total de infectados en el instante de tiempo t, y R(t) = R1(t) + R2(t) es el número de recuperados.

El siguiente gráfico es una representación esquemática de las transiciones entre los siete compartimentos o subpoblaciones que las variables anteriores generan:

Representación esquemática tomada desde el artículo de Marcos Matabuena, Carlos Meijide-García, Pablo Rodríguez-Mier y Víctor Leborán, arxiv.org/abs/2004.13695

 

Si queremos alimentar la sopa de letras surgida desde el modelo SIR, entonces la anterior figura es un ejemplo de otra variante del modelo SIR.

El modelo construido para las anteriores variables aleatorias sirve a los autores para extraer interesantes conclusiones para España, con comentarios específicos sobre sus Comunidades Autónomas, aunque no lo hagan directamente desde una cadena de Markov en tiempo continuo, sino un proceso inspirado en ella. En concreto, usan una matriz de transición de la cadena encajada de la forma

Sin embargo, la experiencia de los autores y la literatura existente ha llevado a éstos a reemplazar la hipótesis de exponencialidad sobre los tiempos de permanencia por otras distribuciones de probabilidad que hacen que el proceso estocástico (S(t), I1(t), I2(t), I3(t), R1(t), R2(t), M(t)) no sea Markoviano, pero sí se ajuste mejor a la incidencia del virus SARS-CoV-2 sobre la población española. Aparentemente, la dependencia de los estados de destino en las transiciones en la siguiente tabla (por ejemplo, el tiempo de permanencia en el estado I3 depende del estado final de transición R1 y M) nos lleva a sospechar que el proceso (S(t), I1(t), I2(t), I3(t), R1(t), R2(t), M(t)) no conserva, ni tan siquiera, las virtudes de un proceso de Markov determinista por partes (piecewise-deterministic Markov process). El modelo resultante no es estacionario y tiene una estructura de dependencia compleja.

Las distribuciones usadas por Marcos Matabuena, Carlos Meijide-García, Pablo Rodríguez-Mier y Víctor Leborán.

 

Para el resto de detalles, de tanta actualidad en los días que vivimos, remitimos al lector al artículo original de los autores.

_____

Manuel de León (Instituto de Ciencias Matemáticas CSIC, Real Academia de Ciencias) y Antonio Gómez Corral (Universidad Complutense de Madrid)

Etiquetas: , , ,
Categorias: Covid-19

De cómo la poesía dio lugar a las cadenas de Markov (III)

Comentábamos en una entrada previa sobre Andrei Markov que su interés al crear las cadenas que hoy llevan su nombre no tenía conexión alguna con posibles aplicaciones, excepto las que desarrolló en literatura por su gran afición a la poesía. Ese interés tan peculiar sigue vigente, como veremos, en nuestros días.

 

Alexander Pushkin

 

De la poesía a las cadenas de Markov

De hecho, el trabajo de Andrei Markov se centró sobre la obra en verso “Eugene Onegin”, de Alexander Pushkin. Andrei Markov dedicó horas, muchas horas, a analizar las secuencias de vocales y consonantes. Y en enero de 1913 presentó sus resultados a la Academia de Ciencias, resultados que no fueron tan importantes para la poesía como sí lo fueron para las matemáticas y sus aplicaciones. A continuación, reproducimos un resumen muy breve del análisis de Andrei Markov. Los lectores de este blog que quieran más detalles sobre esta cuestión pueden seguir el enlace para acceder a un interesante artículo firmado por Brian Hayes.

Andrei Markov no entró en la estructura en sí misma del poema, sino que eliminando puntuaciones, espacios, etc. recogió las 20.000 primeras letras del poema de Alexander Pushkin y organizó éstas en 200 bloques de 10 x10 letras, contando vocales y consonantes en cada fila y cada columna (8.638 vocales y 11.362 consonantes). Calculó medias y varianzas para obtener las medidas de dispersión. A continuación, clasificó pares de letras sucesivas y encontró 1.104 pares de vocales y 3.827 consonantes dobles; el resto serían 15.069 pares de vocal y consonante, o de consonante y vocal.

Ahora podríamos calcular la probabilidad de que una letra elegida arbitrariamente sea una vocal,

8.638/20.000 = 0,43.

Si asumiéramos que todas las letras hubieran sido dispuestas de manera independiente unas de otras, la probabilidad de encontrar dos vocales consecutivas sería

0,43 x 0,43 = 0,19.

Pero la realidad, con lo que hemos contado, es que esa probabilidad debería ser tres veces mayor.

Desde esta observación, la conclusión es clara: las letras no son independientes en el poema y en cada una se observa una dependencia de la letra anterior.

 

Manuscrito de Pushkin

De las cadenas de Markov a la poesía

Cerramos el círculo “cadenas de Markov versus poesía” con algunos ejemplos de cómo este desarrollo probabilístico puede ser usado para crear poesía. Para no ser pretenciosos, vamos a calificarlo como “generar poesía”, pues poca seguridad hay sobre la belleza del resultado final de la composición.

Uno de los instrumentos más interesantes es un generador de poesía llamado Markomposition. Su funcionamiento se inicia cuando, a petición suya, introducimos una frase y el programa, aplicando de manera aleatoria cadenas de Markov, va produciendo el poema.

Recordemos la idea básica de una cadena de Markov: tenemos diferentes estados y las probabilidades de pasar de unos a otros. Para ver cómo se puede aplicar a la literatura, crearíamos estados de modo que cada uno de ellos sea una palabra o una frase, y estableceríamos la probabilidad de pasar de una palabra a otra, o de una palabra a una frase, etc.

En Markomposition se dan algunas instrucciones básicas para su manejo. Por ejemplo, y aunque sea una obviedad, la calidad de lo que obtengamos dependerá no solo de la calidad de los estados posibles, sino también de la variedad de secuenciaciones; es decir, si cada palabra tuviera un solo sucesor, solo habría un poema, así que cuanta mayor variedad en las disposiciones de las palabras introduzcamos, más opciones tendremos de obtener composiciones diferentes. Otra de las variables a considerar se refiere a que debemos fomentar una cierta repetición, base del ritmo poético.

Marie Chatfield Rivas

En la página web de Markomposition, la autora, Marie Chatfield, comenta que ha usado el Proyecto Gutenberg, una biblioteca digital con 60.000 libros electrónicos gratuitos. En particular, para los ejemplos que allí muestra, ha empelado las obras en inglés

  • Poems, de Emily Dickinson
  • The Divine Comedy, de Dante Alighieri
  • Grimm’s Fairy Tales
  • The Sonnets, Triumps, and Other Poems, de Francesco Petrarca
  • The Declaration of Independence of the United States of America
  • Hamlet, Prince of Denmark, de William Shakespeare

Invitamos a que el lector cree su propia biblioteca digital y genere sus propios poemas markovianos.

Otro proyecto similar es el desarrollado por Alexander Raichev, de Auckland, Nueva Zelanda. El lector puede acceder a esta herramienta a través de este enlace. Alexander Raichev llama a su método “Markov, a Game of Poems”, que adaptó como un ejercicio de un libro de texto sobre computación, Exercise 13.8 de Think Python, Downey 2012. En la página de internet se describe con detalle el método y se dan algunas normas para obtener resultados más interesantes.

¡No todo es rigurosidad matemática alrededor de las cadenas de Markov y sus aplicaciones, también hay tiempo para la poesía!

_____

Mario Castro Ponce (Universidad Pontificia Comillas), Manuel de León (Instituto de Ciencias Matemáticas CSIC, Real Academia de Ciencias) y Antonio Gómez Corral (Universidad Complutense de Madrid)

Etiquetas: ,
Categorias: Covid-19

Cadenas de Markov y las leyes de Mendel (II)

En esta entrada, más técnica de lo habitual, vamos a emplear uno de los problemas más clásicos y famosos de la Biología, el descubrimiento de las leyes de la herencia, para explicar a nuestros lectores el uso de las cadenas de Markov en Biología Matemática. En nuestros comentarios aparecerán el monje checo Johann Mendel y otros dos eminentes matemáticos británicos, Godfrey Harold Hardy y Ronald Aylmer Fisher.

Gregor (Johann) Mendel (Heinzendorf, 1822 – Brünn, 1884)

 

Los guisantes de Johann de Mendel

El término Leyes de Mendel fue por primera vez empleado a raíz de que el holandés Hugo de Vries, el alemán Carl Correns y el austríaco Erich von Tschermak redescubrieran, de manera independiente y casi simultánea en 1900, los postulados del monje agustino sobre la herencia, como ya mostramos en la entrada Mendel, el de los guisantes. Estos postulados están basados en los experimentos realizados entre los años 1856 y 1863 por Johann Mendel sobre la variabilidad de las plantas de guisantes, y aparecen descritos en el artículo titulado “Versuche über pflanzenhybriden” (“Experimentos sobre la hibridación de las plantas”), que presentó en dos sesiones de la Sociedad de Historia Natural de Brno en 1865 y publicó en la revista Verhandlungen des Naturforschenden Vereines in Brünn en 1866. La traducción al inglés de este trabajo forma parte del documento “Mendel’s Principles of Heredity: A Defence” (“Los Principios Mendelianos de la Herencia: Una Defensa”) escrito por el británico William Bateson en 1902 con la intención de clarificar el papel de Johann Mendel como precursor de la Genética moderna.

Johann Mendel explicó sus observaciones y su patrón de la herencia tomando como sistema modelo a los guisantes de jardín (Pisum sativum) y sus características fenotípicas, aprovechando que estas plantas tienen un rápido ciclo de vida, producen un elevado número de semillas – fáciles de catalogar por su forma (en concreto, color y rugosidad) – y se pueden reproducir por autofecundación, además de que también son fáciles de cruzar o aparear de forma controlada. En concreto, al cruzar plantas nacidas de semillas lisas con plantas nacidas de semillas rugosas, observó que las plantas híbridas obtenidas siempre generaban semillas lisas, lo cual le llevó a acuñar los términos dominante y recesivo para referirse a los rasgos “semilla lisa” y “semilla rugosa”, respectivamente. De manera semejante llegó a catalogar el rasgo “semilla amarilla” como dominante y el rasgo “semilla verde” como recesivo.

Desde un primer experimento, Johann Mendel observó que, con independencia del carácter fenotípico en estudio,

la autofecundación de las plantas nacidas desde semillas híbridas producía en la primera generación semillas que tenían bien el rasgo dominante o el rasgo recesivo en proporciones aparentemente aleatorias,

y concluyó que

las semillas con el rasgo dominante eran obtenidas aproximadamente tres veces más frecuentemente que las semillas con el rasgo recesivo.

En un segundo experimento, analizó las semillas generadas por las plantas crecidas desde semillas obtenidas en la primera generación y concluyó que

entre las plantas crecidas desde semillas de la primera generación con el carácter dominante, aquéllas que por autofecundación dieron lugar a semillas con el rasgo dominante o con el rasgo recesivo eran aproximadamente dos veces más que aquéllas que sólo daban lugar a semillas con el rasgo dominante.

Hasta este punto, poco parece haber sobre cadenas de Markov, ni tan siquiera probabilidades en nuestros comentarios sobre los trabajos de Johann Mendel, pero no nos dejemos engañar como ahora veremos.

Para hacer evidente la conexión entre la herencia de los caracteres fenotípicos y las cadenas de Markov, hacemos énfasis primero sobre los dos siguientes postulados hechos por Johann Mendel, donde aparece la noción de probabilidad:

  1. El carácter o rasgo (dominante o recesivo) de una semilla es la consecuencia de los factores ocultos, denotados por A (dominante) y a (recesivo), de manera que existen tres combinaciones posibles o factores AA, Aa y aa. Las semillas con las combinaciones AA y Aa tienen el rasgo A dominante, mientras que las semillas con la combinación aa tienen el rasgo a recesivo.
  2. Los granos de polen y los gametos transmiten sólo uno de los dos rasgos con idénticas oportunidades o probabilidades.

Como consecuencia, el cruce de dos linajes puros AA y aa conduce a híbridos con los factores Aa y el rasgo A dominante, mientras que los gametos de híbridos con los factores Aa transmiten el rasgo A con probabilidad ½ y el rasgo a con probabilidad ½.

La siguiente tabla resume los posibles resultados del proceso de autofecundación de un híbrido Aa y sus probabilidades, en función de los rasgos A y a transmitidos por los gametos masculinos (fila) y femeninos (columna):

Es sencillo comprobar la propiedad Markoviana en la evolución de los factores AA, Aa y aa en las futuras generaciones. Por ejemplo, comenzando con N semillas híbridas Aa y asumiendo que cada planta da lugar por autofecundación sólo a 4 semillas, los números medios de semillas AA(n+1), Aa(n+1) y aa(n+1) en la generación n+1 pueden evaluarse desde los correspondientes números medios en la generación anterior n:

AA(n+1) = Aa(n) + 4 AA(n),

Aa(n+1) = 2 Aa(n),

aa(n+1) = Aa(n) + 4 aa(n).

En la terminología genética moderna, los rasgos son denominados alelos y los factores son llamados genotipos.

 

Las mejoras en las leyes de la herencia de Mendel

Los biólogos de la época, recelosos de los resultados de Johann Mendel, se preguntaban por qué el rasgo dominante no se hacía más frecuente de generación en generación. El genetista británico Reginald Punnett formuló esa pregunta a uno de sus compañeros de cricket en Cambridge, el matemático Godfrey Harold Hardy, quien publicó en 1908 el artículo titulado “Mendelian proportions in a mixed population” (“Proporciones Mendelianas en una población mezclada”) con una solución del problema bajo la hipótesis de que, en el caso de una población de tamaño infinito, la elección de la pareja sexual de un individuo sería aleatoria.

Godfrey Harold Hardy (Surrey, 1877 – Cambridge, 1947)

Al igual que Johann Mendel, Godfrey Harold Hardy centró su interés en una población diploide, es decir, con dos alelos, A y a, donde A es dominante y a es recesivo, y se interesó en determinar las frecuencias p(n), 2q(n) y r(n) de los genotipos AA, Aa y aa, respectivamente, en la generación n, con p(n)+2q(n)+r(n)=1. Para ello, asumió que ninguno de los genotipos incrementaba su mortalidad o decrecía su fertilidad en comparación con los otros dos genotipos. Las frecuencias en la generación n+1 pueden computarse desde las frecuencias en la generación n, observando que un individuo elegido aleatoriamente en la generación n transmite el alelo A con probabilidad p(n)+ q(n), bien porque el genotipo es AA y el alelo A se transmite con probabilidad 1, o porque el genotipo es Aa y el alelo A se transmite con probabilidad ½; de manera análoga, el alelo a se transmite con probabilidad q(n)+r(n).

El modelo resultante, conocido como ley de Hardy-Weinberg debido a que los resultados obtenidos por Godfrey Harold Hardy fueron también derivados ese mismo año 1908 por el médico alemán Wilhelm Weinberg (Stuttgart, 1862 – Tübingen, 1937), nos conduce a una actualización de la tabla de Johann Mendel para las frecuencias de los genotipos AA, Aa y aa en la generación n+1 en función de las frecuencias de los alelos A y a transmitidos por el padre (fila) y la madre (columna).

De nuevo, es posible observar la propiedad Markoviana en las expresiones de las frecuencias de los genotipos AA, Aa y aa en la generación n+1, que vienen dadas por  


La ley de Hardy-Weinberg falla cuando se pretende capturar el fenómeno de la evolución genética en una población diploide finita, donde la tendencia aleatoria juega un papel relevante.

 

El modelo de Wright-Fisher

El estadístico y biólogo británico Ronald Aylmer Fisher y el genetista estadounidense Sewall Green Wright (Melrose, 1889 – Madison, 1969) serían los primeros en proponer un modelo matemático que incorporaba aleatoriedad en poblaciones diploides finitas sin mutación.

En el supuesto de una población diploide de tamaño N y genotipos AA, Aa y aa de los alelos A y a, el número Xn de alelos A en la generación n puede ser visto como una variable aleatoria – dado que el número total de alelos es 2N en cualquier generación, el número de alelos a en la generación n es  2N – Xn– y la sucesión de números {Xn : n {0, 1, …  }} resulta ser una cadena de Markov en tiempo-discreto sobre el espacio de estados S = {0, 1, … , 2N }  con probabilidades de transición en una etapa homogéneas en el tiempo

Esta expresión es obtenida teniendo en cuenta que los 2N alelos de la generación n+1 son obtenidos desde los 2N alelos de la generación anterior como si desarrollásemos 2N intentos independientes de Bernoulli, donde las respectivas probabilidades de obtener un alelo A (“éxito” en el intento de Bernoulli) y un alelo a (“fracaso”) son i/2N y (2N-i)/2N, en el supuesto Xn = i. Después de un número finito de generaciones, la población termina siendo homocigótica como consecuencia de que la absorción en alguno de los estados {0, 2N} es segura. En el contexto de la cadena de Markov, los estados 0 y 2N son absorbentes y equivalen a una población homocigótica de genotipos aa y AA, respectivamente, y son alcanzados en un número medio finito de generaciones.

Las probabilidades de fijación (absorción) en los alelos a (estado 0) y A (estado 2N) vienen dadas por

donde T = inf {n: Xn{0,2N}} equivale a la generación en la que, por primera vez, la población es homocigótica.

En el año 1922, Ronald Aylmer Fisher publicó el artículo titulado “On the dominance ratio” (“Sobre el cociente de dominancia”) donde combinó las leyes de Mendel y el principio de selección natural de la teoría de la evolución de Charles Darwin, explicando entonces las dos situaciones antagónicas de coexistencia de genotipos y de extinción de uno de los genotipos. Su modelo puede ser visto como una evolución del modelo de Godfrey Harold Hardy, donde se asume que los individuos con genotipos AA, Aa y aa tienen diferentes mortalidades antes de alcanzar la edad adulta.

Ronald Aylmer Fisher (Londres, 1890 – Adelaida, 1962)

Tomando p(n), 2q(n) y  r(n)  como las frecuencias de los genotipos AA, Aa y aa entre los individuos adultos de la generación n, las frecuencias de estos genotipos entre los individuos nacidos en la generación n+1 son (p(n)+q(n))2, 2(p(n)+q(n))(q(n)+r(n)) y (q(n)+r(n))2, de modo que las frecuencias de los genotipos entre los individuos adultos en la generación n+1 tienen la forma

 

donde s(n)=α(p(n)+q(n))2+2β(p(n)+q(n))(q(n)+r(n))+γ(q(n)+r(n))2, en el supuesto de que α, β y γ representen las probabilidades de que un individuo con los genotipos AA, Aa y aa, respectivamente, complete el proceso de maduración.

La ausencia de selección natural equivale a la elección α=β=γ y nos lleva a las ecuaciones escritas por Godfrey Harold Hardy.

La principal aportación de Ronald Aylmer Fisher se refiere a una expresión para el incremento entre las frecuencias alélicas de A sobre los individuos adultos de dos generaciones sucesivas, que le permitió observar que existen, al menos, dos estados estables donde las frecuencias alélicas del alelo A permanecen constantes: f = 0 (población homocigótica del genotipo aa); y f = 1 (población homocigótica del genotipo AA). Dicho de otra forma,

en una población diploide (con alelos A y a) infinita con apareamiento aleatorio sin mutación y selección natural,

(a) El alelo a desaparecerá progresivamente, en el supuesto de que el genotipo AA tenga mejores oportunidades selectivas para sobrevivir (es decir,  α>β y α>γ).

(b) Los tres genotipos AA, Aa y aa podrán coexistir permanentemente en la población cuando el genotipo Aa tenga una ventaja selectiva sobre los genotipos AA y aa (es decir,  β>α y β>γ).

En el año 1930, Ronald Aylmer Fisher publicaría el libro “The Genetical Theory of Natural Selection” (“La Teoría Genética de la Selección Natural”) con una amplia repercusión en la comunidad científica. Junto a Sewall Green Wright y el genetista y biólogo evolutivo británico John Burdon Sanderson Haldane (Oxford, 1892 – Bhubaneswar, 1964), Ronald Aylmer Fisher es hoy considerado uno de los fundadores de la Genética de Poblaciones como la corriente científica que concilia la metodología biométrica del matemático y estadístico británico Karl Pearson (Londres, 1857 – Surrey, 1936) con la Genética Mendeliana dirigida por William Bateson. Sin embargo, no hay que olvidar quién y cómo comenzó esta historia, con el monje Johann Mendel experimentando con guisantes en los jardines de su abadía.

Es el momento de concluir esta entrada, atípica por lo denso de sus contenidos, donde las matemáticas se mezclan con la genética. Más detalles matemáticos, todavía a nivel divulgativo, sobre este apasionante recorrido desde las leyes de la herencia de Johann Mendel hasta la actualidad pueden encontrarse en el capítulo 4 del libro Las Matemáticas de la Biología (Editorial Catarata, 2019). El lector ávido de detalles sobre el uso de cadenas de Markov, en particular, en Epidemiología quizá quiera contactar con los autores, quienes estarán encantados de compartir con él materiales sencillos sobre su investigación matemática.

_____

Manuel de León (Instituto de Ciencias Matemáticas CSIC, Real Academia de Ciencias) y Antonio Gómez Corral (Universidad Complutense de Madrid)

Etiquetas: , ,
Categorias: Covid-19

Andrei Markov, cadenas para luchar contra las epidemias (I)

La sección de “El Tiempo” ocupa una parte destacada en los telediarios de todas las cadenas. Esta sección, aparte de contarnos el tiempo que ha hecho hoy nos ha ayudado también a comprender conceptos como “probabilidad de lluvia” o la imposibilidad de saber un lunes si el domingo podremos ir a la playa. En el caso de las epidemias, otro fenómeno muy difícil de explicar, la incertidumbre de cuándo llegará (o llegó) el pico y cuánta gente va a ingresar en el hospital la semana que viene invita a una variedad de modelos matemáticos llamados cadenas de Markov. En nuestro objetivo de acercar a la sociedad los instrumentos matemáticos que nos ayudan a enfrentar la actual pandemia, nos hacemos hoy eco de la figura de un matemático excepcional, Andréi Andréyevich Márkov, el inventor de las cadenas que llevan su nombre. En esta primera entrada hablaremos de sus logros generales, mientras que en otras centraremos la atención sobre las aplicaciones a la biología y, en particular, a la epidemiología.

Andrei Markov nació en Riazán, Rusia, el 14 de junio de 1856. Su padre, hijo de un diácono rural, estudió en un seminario, consiguiendo posteriormente un empleo en el Departamento Forestal en San Petersburgo.  Andrei Markov era el mayor de los dos hijos varones en una familia numerosa; su hermano menor, Vladimir, muerto prematuramente de tuberculosis, había conseguido en un corto espacio de vida una gran reputación como buen matemático.

Andrei Markov fue un niño con una salud delicada, llevando muletas hasta los diez años. En la secundaria destacó en matemáticas, llamando ya entonces la atención de sus profesores. Era obvio que iba a estudiar esta materia y así lo hizo en la prestigiosa facultad de Física y Matemáticas de la Universidad de San Petersburgo, participando en los seminarios de un matemático tan brillante y con capacidad de liderazgo como era Chebyshev, es decir, Pafnuti Lvóvich Chebyshov (Okátovo 1821 – San Petersburgo 1894).

Andrei Markov se graduó en 1878 y comenzó su trabajo de máster sobre teoría de números (aproximación racional), una tesis que fue muy alabada y considerada uno de los mejores resultados en el tema en esa época. Esto le permitió seguir su carrera como profesor de la universidad y conseguir el doctorado en 1884. En 1886 se convirtió en adjunto de la Academia de Ciencias de San Petersburgo a propuesta de Chebyshev, aunque siguió manteniendo su vinculación con la universidad.

Fue en 1900 cuando Andrei Markov comenzó a investigar en la teoría de probabilidad, tema en el que obtuvo resultados muy brillantes, destacando el descubrimiento de las cadenas que llevan su nombre. Chebyshev, Kolmogorov y Markov son los grandes nombres que usaron elementos de la teoría de la medida para convertir la teoría de probabilidad en una de las áreas más rigurosas y respetadas de las matemáticas.

Andrei Markov no trabajó pensando en las posibles aplicaciones prácticas de las cadenas de Markov y, de hecho, la única que hizo fue a la literatura, contando vocales y consonantes, quizás por su gran amor a la poesía (de esto hablaremos en una próxima entrada). Sin embargo, como mostraremos a continuación, las aplicaciones de las cadenas de Markov son de gran utilidad práctica.

 

Cadenas de Markov

De manera intuitiva, una cadena de Markov en tiempo discreto (por sencillez) es un proceso estocástico que evoluciona en tiempo discreto o etapas y tiene la propiedad Markoviana que dice que “el futuro depende de lo que pasa en el presente, pero no del pasado estricto”.  Tendremos unos estados E1, E2, E3, …, de manera que se pasa de uno a otro por una matriz de transición en una etapa. La cardinalidad del conjunto de estados es numerable, es decir, es un conjunto finito o con la misma cardinalidad que los números naturales. La matriz de transición en una etapa tiene como elementos a las probabilidades de paso de un estado a otro cuando el proceso evoluciona desde una etapa n a la etapa siguiente n+1. Por lo tanto, está compuesta de números reales positivos entre 0 y 1, de manera que la suma de cada fila o columna, según la disposición de los estados inicial (en la etapa n) y final (en la etapa n+1), es 1.

Este es un ejemplo muy sencillo. En una unidad de cuidados intensivos, los pacientes se clasifican atendiendo a su estado: crítico, serio y estable. Cada día se actualizan las clasificaciones de acuerdo con la evolución histórica de los pacientes admitidos en la unidad hasta ese momento, de modo que las frecuencias relativas de cambios de estado de un paciente son:

 

En la disposición anterior, las entradas por filas están asociadas al estado del paciente en el día n y las columnas se refieren a su estado en el día n+1. Entonces, podríamos tomar como matriz de transición en una etapa

0.6   0.3   0.1

0.4   0.4   0.2

0.1   0.4   0.5

donde las filas suman 1. Una representación gráfica como la siguiente nos puede ayudar a entender mejor la dinámica de cambio entre estados de un paciente en dos días consecutivos:

Con un gráfico como este podemos calcular probabilidades en más de una etapa. Por ejemplo, la probabilidad de pasar del estado crítico C a estable E en dos días. Hay tres posibles caminos, dependiendo del estado C, S y E del paciente después del primer día:

C –> C –> E

C –> S –> E

C –> E –> E,

así que sólo tenemos que multiplicar las probabilidades y sumar de la forma

0.6 x 0.1 + 0.3 x 0.2 + 0.1 x 0.5 = 0.17

Es decir, un paciente ingresado en estado crítico C evolucionará al estado estable E en dos días en un 17% de las ocasiones.

Andrei Markov era una persona comprometida políticamente en una época, principios del siglo XX, de transición agitada de Rusia. Por ejemplo, cuando a Maksim Gorky se le retiró su nombramiento como académico de la Academia de Ciencias por razones políticas, protestó enérgicamente, y en 1913 se negó a secundar la celebración del tercer centenario del zarismo para celebrar, por su cuenta, el segundo aniversario de la Ley de los Grandes Números. Cuando triunfó la Revolución Rusa de 1917, Andrei Markov solicitó que le enviaran a un pequeño pueblo del interior, Zaraisk, a enseñar en la escuela local de manera gratuita y así contribuir a la mejora de la pobre sociedad rural. Aquejado de graves problemas de salud, falleció en San Petersburgo el 20 de julio de 1922, a los 66 años de edad, debido a la infección generalizada producida por una de las varias operaciones quirúrgicas de rodilla a las que fue sometido.

 

Tumba de A. Markov en San Petersburgo

_____

Mario Castro Ponce (Universidad Pontificia Comillas), Manuel de León (Instituto de Ciencias Matemáticas CSIC, Real Academia de Ciencias) y Antonio Gómez Corral (Universidad Complutense de Madrid)

Etiquetas: , , ,
Categorias: Covid-19