Disponible el último boletín del ICMAT en el 2015, que coincide con la renovación en el Programa Severo Ochoa


El undécimo boletín del ICMAT, publicado esta misma semana, presenta la nueva Unidad de Consultoría en Estadística que dará servicio a todos los centros del CSIC durante el 2016. Contiene una entrevista a David Pérez-García, investigador UCM-ICMAT y ERC Consolidator Grant, quien nos vaticina los ordenadores cuánticos a diez años vista y coautor de un resultado publicado en Nature el pasado miércoles. El undécimo boletín corresponde al cuarto trimestre de 2015 y estrena una nueva sección: “She makes math” con María Barbero, experta en la teoría de control. El boletín puede descargarse en PDF en español o inglés. También se puede suscribirse al boletín siguiendo este enlace.

  El último boletín del 2015 arranca con el editorial del director, Rafael Orive Illera y la renovación del programa Severo Ochoa que asegura la capacidad del Instituto de Ciencias Matemáticas (ICMAT) para seguir con su ambicioso proyecto científico. Orive resalta la relevancia de este reconocimiento al ICMAT como centro de investigación matemática de excelencia en el ámbito internacional y agradece el esfuerzo de todos los investigadores por haber formado parte de este logro, por segunda vez.

El boletín correspondiente al cuarto trimestre de 2015 incluye una entrevista a David Pérez-García, investigador UCM-ICMAT y ERC Consolidator Grant, quien nos vaticina los ordenadores cuánticos a diez años vista. El trabajo de Pérez-García se centra en analizar y clasificar, desde un punto de vista matemático, las propiedades que pueden apa¬recer en los materiales a muy baja temperatura, un conocimiento que podría guiar la búsqueda de materiales con propiedades nuevas. Y es que, entre sus objetivos está el de encontrar una tabla periódica de todas las posibles características cuánticas de la materia diferente.

Además, el boletín contiene un reportaje sobre la Unidad de Consultoría en Estadística creada por el grupo SPOR (Statistics, Probability and Operation Research) para dar servicio a todos los centros del CSIC. A modo de spin-off, SPOR estrenará estas Navidades un portal web como canal de comunicación para establecer colaboraciones con otros institutos y so¬lucionar problemas en temas de frontera de la ciencia. Prácticamente cualquier disciplina que recoja datos (ciencias de la salud, ciencias sociales, ingeniería, o astrofísica) o necesite de técnicas probabilísticas y de investigación operativa podría beneficiarse de esta iniciativa piloto. Para los siete miembros del equipo SPOR, el desarrollo de modelos estadísticos que cubra las necesidades de otros equipos de investigación es un reto en sí, y para el CSIC podría llegar a suponer un importante avance cualitativo y cuantitativo en su productividad científica.

Reseña científica y perfiles

La reseña corresponde a un trabajo sobre geometría simpléctica, la herramienta más habitual para abordar el estudio de la mecánica clásica, elaborado por Manuel de León (ICMAT), Modesto Salgado (Universidad de Santiago de Compostela) y Silvia Vilariño (Centro Universitario de la Defensa).

Entre los perfiles, este número cuenta con un “autorretrato de Daniel Azagra, profesor de la UCM e investigador del ICMAT; con el perfil de Víctor José Garrido, experto en mecánica de fluidos quien nos anuncia los resultados de los trabajos realizados junto a Ana María Mancho (también ICMAT) sobre la estrategia de búsqueda del vuelo de Malaysia Airlines desaparecido el 8 de marzo de 2014; y con María Barbero, especializada en la teoría de juegos, que estrena una nueva sección del ICMAT Newsletter: “She makes math”, que forma parte del Plan de Género del próximo programa Severo Ochoa.

Excelencia, internacionalización, juventud

El ICMAT Newsletter es una publicación trimestral con la que el Instituto muestra su actividad investigadora de primer nivel. El boletín quiere ser un reflejo de lo que ocurre en el ICMAT y, de manera más amplia, en un centro de excelencia de investigación matemática.

Desde sus inicios, el ICMAT ha tenido una ambiciosa proyección hacia la excelencia internacional de la investigación en matemáticas. Prueba de ello es su obtención en 2011 (primer año de convocatoria) del distintivo Severo Ochoa, mediante el cual el Ministerio de Economía y Competitividad distingue a los mejores centros de investigación españoles. El proyecto responde a la vocación de diseminación de las matemáticas del ICMAT, por lo que se presentan con un enfoque periodístico los temas más candentes de la investigación actual, noticias relevantes dentro de la comunidad matemática, el calendario de próximas actividades y extensas entrevistas a las grandes figuras de la matemática internacional que visitan el centro.

Etiquetas: , , ,
Categorias: General

Gödel y Turing irrumpen en la física cuántica


Un problema matemático que subyace en preguntas fundamentales de la física cuántica y de partículas es indecidible, según un resultado que e se publicó esta semana en la revista Nature, lo firman investigadores de la Universidad Complutense de Madrid – ICMAT, del University College of London y de la Universidad Técnica de Múnich. Es la primera vez que se demuestra este tipo de limitación fundamental en un problema físico importante.

David Perez-Garcia (ICMAT-UCM), Michael M. Wolf (TUM) y Toby S. Cubitt (UCL) hoy en la Facultad de Matemáticas de la TUM. Imagen: Andreas Battenberg / TUM

El problema del gap espectral, una cuestión central en física cuántica y de partículas, no tiene solución de forma general. Un grupo de investigadores de la Universidad Complutense de Madrid (UCM)-Instituto de Ciencias Matemáticas (ICMAT), del University College of London (UCL), y de la Universidad Técnica de Múnich, han demostrado en un artículo publicado esta semana en Nature que aunque se disponga de una descripción completa de las propiedades microscópicas de un material, no siempre se puede predecir su comportamiento macroscópico.

El gap espectral representa la energía necesaria para transferir un electrón de un estado de baja energía a un estado excitado. Por ejemplo, un gap espectral pequeño es la propiedad central de los semiconductores. De forma similar, esta cantidad juega un papel importante en muchos otros materiales. Cuando el gap espectral se hace pequeño, es decir, se cierra, el material puede cambiar a otro estado totalmente diferente (lo que ocurre, por ejemplo, cuando un material se convierte en un súper conductor).

“La posibilidad de extrapolar la descripción microscópica del material a las propiedades del sólido es una de las herramientas más importantes en la búsqueda de materiales superconductores a temperatura ambiente o con otras propiedades de interés”, afirmaba uno de los autores del estudio, David Pérez García, investigador de la UCM y miembro del ICMAT. El estudio publicado hoy en Nature muestra una limitación fundamental en este enfoque. Usando matemáticas sofisticadas, los autores han demostrado que, aun disponiendo de una descripción microscópica completa de un material cuántico, determinar si tiene o no gap espectral es un problema indecidible.

“Alan Turing es conocido por su papel en la descodificación de la máquina Enigma”, contaba Toby Cubitt, investigador del University College of London (UCL) Computer Science, también autor del resultado. “Pero dentro de la comunidad matemática e informática, es mucho más famoso su trabajo en lógica: demostró que algunas preguntas matemáticas son indecidibles. Es decir, no son ni ciertas ni falsas. Simplemente están más allá del alcance de las matemáticas. Nosotros hemos demostrado que el gap espectral es uno de esos problemas, lo que significa que no puede existir un método general para determinar si un sistema, descrito mediante la mecánica cuántica, tiene o no tiene gap espectral. Esto limita el alcance que pueden tener nuestras predicciones de los materiales cuánticos, e incluso de la física de partículas elementales”.

Un millón de dólares que ganar

El problema más famoso sobre el  gap espectral es determinar si la teoría que gobierna las partículas elementales de la materia (el llamado modelo estándar de la física de partículas) tiene un gap espectral. Los experimentos de física de partículas, como los que se desarrollan en el CERN (Laboratorio Europeo de Física de Partículas Elementales), y las simulaciones en supercomputadores, indican que sí existe, en este caso, un gap espectral. Sin embargo, todavía no hay una demostración matemática de la cuestión, conocida como la conjetura del salto de masa de Yang-Mills. Quién la encuentre recibirá un millón de dólares de premio del Instituto Clay de Matemáticas, que seleccionó el problema como uno de los siete problemas del Milenio.

“Hay casos particulares del problema que sí tienen solución, aunque la formulación general sea indecidible, por lo que aún es posible que alguien gane el millón de dólares. Pero nuestro resultado abre la posibilidad de que algunos de los grandes problemas de la física teórica no tengan solución”, añadía el investigador Toby Cubitt (UCL).

“Desde los trabajos de Turing y Gödel en la década de 1930 se sabe que, en principio, podían existir problemas indecidibles”, afirmaba Michael Wolf, investigador de la Universidad Técnica de Múnich. “Pero, hasta el momento esto solo afectaba a la teoría de la computación y la lógica matemática más abstractas. Nadie había considerado seriamente que estas ideas pudieran afectar al corazón de la física teórica”, prosiguía. “Desde una perspectiva filosófica, el resultado también cuestiona la visión reduccionista de la realidad, porque la dificultad insalvable del problema radica en pasar de la descripción microscópica a las propiedades macroscópicas”.

No todo son malas noticias

“Pero no todo son malas noticias”, afirmaba David Pérez-García (UCM-ICMAT) “Nuestros resultados también predicen la existencia de sistemas cuánticos con propiedades no observadas todavía. Por ejemplo, nuestro trabajo muestra que el añadir una sola partícula a un cúmulo de materia puede, en principio  hacer cambiar radicalmente sus propiedades. La historia de la física nos enseña que, a menudo, propiedades nuevas y exóticas como esta se traducen, antes o después, en avances tecnológicos”, concluía.

Ahora, los investigadores quieren ver si sus resultados se pueden extender más allá de los modelos matemáticos artificiales sobre los que han trabajado, a materiales cuánticos más realistas que puedan producirse en el laboratorio.

Referencia

Toby S. Cubitt, David Pérez-García, Michael M. Wolf, ‘Undecidability of the Spectral Gap’, se publicó en Nature el 10 de diciembre de 2015.

Esta investigación ha sido financiada por el Ministerio de Economía y Competitividad español (MINECO), el gobierno regional de Madrid,  el European Research Council (ERC), la John Templeton Foundation, y la Royal Society (UK).

Etiquetas: , , , ,
Categorias: General

Dos investigadores del ICMAT elegidos presidente y vicepresidente segundo de la RSME


Francisco Marcellán (UC3M-ICMAT) es el nuevo presidente de la Real Sociedad Matemática Española (RSME) y David Martín de Diego (CSIC-ICMAT), vicepresidente segundo. A ellos se suman Mercedes Siles (Universidad de Málaga), como vicepresidenta primera. Además, Alberto Ibort (UC3M-ICMAT) ha sido nombrado editor general. Entre las prioridades de este nuevo equipo de gobierno: estabilidad económica, fomentar la participación de los socios, descentralizar la actividad de la RSME y tener un mayor impacto social.

De izquierda a derecha: David Martín de Diego (CSIC-ICMAT), Francisco Marcellán Español (UC3M-ICMAT) y Mercedes Siles (Universidad de Málaga).

El pasado mes de noviembre la Real Sociedad Matemática Española (RSME) ha renovado su junta directiva. En el nuevo equipo de gobierno, tres de los seis miembros son investigadores del ICMAT: Francisco Marcellán Español (UC3M-ICMAT), como presidente, David Martín de Diego (CSIC-ICMAT) como vicepresidente segundo y  Alberto Ibort (UC3M-ICMAT) como editor general. A ellos se suman Mercedes Siles (Universidad de Málaga), vicepresidenta primera, María Antonia Navascués (Universidad de Zaragoza), como secretaria y Jesús A. Laliena Clemente (Universidad de La Rioja) como tesorero, que ya ostentaba el cargo desde 2013.

Las elecciones se celebraron el pasado 6 de noviembre y la toma de posesión tuvo lugar el 14 de noviembre. El mandato de todos los cargos se extenderá hasta el año 2018, excepto el de tesorero, que finaliza en 2016. Durante estos años la prioridades están claras: “Además de consolidar la situación económica de la RSME  mediante diferentes vías, debemos fomentar la participación de los socios no solo a través de los congresos sino también en actividades más descentralizadas que permitan una cercanía real de la RSME”, señala el nuevo presidente, Francisco Marcellán, catedrático de Matemática Aplicada de la Universidad Carlos III de Madrid y miembro del ICMAT.

“Pretendemos recuperar la ilusión en la RSME, sentir que es la auténtica representante de la comunidad matemática; y que una sociedad fuerte ayudará mucho en el beneficio y consideración de todo el colectivo matemático”, añade David Marín de Diego, investigador y director de la Unidad de Cultura Matemática del ICMAT, y vicepresidente segundo.

La Real Sociedad aspira a tener un papel protagonista  y ser referente ante las instituciones políticas y las administraciones públicas. “Debemos hacer llegar nuestras sugerencias a centros de decisión, teniendo como carta de presentación nuestra capacidad creativa y propositiva”, afirma Marcellán. Además de aportar la visión científica a las diferentes preocupaciones sociales, la RSME quiere transmitir a los cuerpos de gobierno las necesidades de la comunidad matemática, en concreto, las de la nueva generación de investigadores. “Vamos a poner toda nuestra dedicación en ayudar a la mejora y estabilización profesional de nuestros mejores valores matemáticos. Ha costado años lograr el altísimo nivel que tenemos ahora y sería un doloroso despilfarro echarlo a perder todo por una visión cortoplacista”, declara Martín de Diego.

Divulgación, comunicación y educación

En un contexto cambiante, la RSME mira al futuro: “La situación de las matemáticas está evolucionando, aparecen nuevos centros e institutos con dinámicas propias y la RSME debe contribuir a mejorar la coordinación dentro de la sociedad”, asegura Martín de Diego.

Entre las prioridades del nuevo equipo directivo de la RSME están la comunicación y la divulgación. Una de  las acciones propuestas es la creación de un Gabinete de Comunicación y la incorporación de la RSME  en las redes sociales. Además, quieren incrementar su programa de divulgación. “La RSME debe dar un valor importante a la divulgación científica y fomentar las vocaciones hacia las Matemáticas en los niveles de estudios no universitarios”, asegura Marcellán. También buscarán una “mayor complicidad entre la RSME y los profesionales de la educación secundaria, colaborando activamente con sus sociedades profesionales y aportando soluciones a sus problemas y reivindicaciones”, añade Martín de Diego.

En los próximos tres años, todas estas intenciones irán tomando forma. Una de las primeras tareas de la RSME será la preparación de un Libro Blanco sobre la situación de las Matemáticas en el país en todos los periodos formativos, en la investigación, en las salidas profesionales… Este diagnóstico de la situación actual será un primer paso para asumir las responsabilidades correspondientes. “Las sociedades científicas deben ser articuladoras de sociedad civil en un contexto socio-político complejo. Deben actuar como think-tanks en aquellos temas que conocen, y suministrar conocimiento y propuestas innovadoras a la sociedad y a las administraciones que gestionan los aspectos educativos y de política científica y tecnológica”, concluye Marcellán.

Los nuevos cargos

(Información extraída de la RSME)

Francisco Marcellán Español. Licenciado y Doctor en Matemáticas por la Universidad de Zaragoza. Catedrático de Matemática Aplicada en el Departamento de Matemáticas de la Universidad Carlos III de Madrid y miembro del Instituto de Ciencias Matemáticas (ICMAT). A lo largo de sus más de 43 años de carrera académica ha sido profesor en las universidades de Zaragoza, Santiago de Compostela y Politécnica de Madrid.  Su campode especialización es la Teoría de Aproximación, los Polinomios Ortogonales y el Análisis Matricial. Es autor de más de 250 publicaciones en revistas especializadas y de 60 publicaciones en congresos y obras colectivas. Ha dirigido 36 tesis doctorales. Su relación con la RSME se remonta al año 2000, en el que entró como Vocal (2000–2006) y, después, como Vicepresidente primero (2012–2015). Ha tenido otros cargos de servicio a la comunidad científica: Vicerrector de Investigación de la Universidad Carlos III de Madrid (1995–2004), Director de la Agencia Nacional de Evaluaciónde la Calidad y Acreditación (ANECA) (2004–2006) y Secretario General de Política Científica y Tecnológica del Ministerio de Educación y Ciencia (2006–2008). Es Académico Correspondiente de las siguientes instituciones: Real Academia de Ciencias Exactas, Físicas y Naturales de Zaragoza (2004), Academia de Ciencias Exactas,Físicas y Naturales de Colombia (2006), Academia de Ciencias Matemáticas, Físico-Químicas y Naturales de Granada (2010).

David Martín de Diego. Investigador científico del CSIC en el Instituto de Ciencias Matemáticas-ICMAT. Doctor en Matemáticas por la Universidad Complutense de Madrid (1995), fue Profesor Titular en la Universidad de Valladolid antes de ocupar su puesto en el CSIC en el año 2000. Su investigación se centra en las aplicaciones de la mecánica geométrica a un amplio rango de temas, incluyendo integradores numéricos geométricos, teoría del control óptimo, reducción por simetrías, etc. Enfatiza la relación entre la geometría diferencial (geometría simpléctica y de Poisson, grupoides y algebroides de Lie. . . ) y diferentes tipos de sistemas dinámicos. Ha sido miembro activo de la RSME: Director de La Gaceta de la RSME, Vocal de la Junta de Gobierno, Presidente de la Comisión Bibliográfica y colaborador en la organización de los actos del Centenario de la RSME en el Senado. Su compromiso con la divulgación de las matemáticas le ha llevado a ser Director de la Unidad de Cultura Matemática del ICMAT, así como a organizar e impartir conferencias y talleres, escribir libros  y materiales didácticos de popularización de las matemáticas.

Alberto Ibort Latre. Catedrático de Matemática Aplicada en el Departamentode Matemáticas de la Universidad Carlos III de Madrid y miembro del ICMAT.Licenciado en Física (1980) y Matemáticas (1985) en la Universidad de Zaragoza y Doctor en Ciencias (sección de Física) en la misma universidad en 1984, fue Profesor Titular de Física Teórica en la Universidad Complutense de Madrid hasta 1997, cuando se incorporó a la UC3M. Trabaja en el desarrollo de Matemáticas inspiradasen problemas de la Física y la Ingeniería. Actualmente trabaja en proyectos relacionadoscon la Teoría de la Información Cuántica en el estudio de las propiedades causales de espacio-tiempos, en control y simetría, y en los fundamentos geométricos y topológicos de la teoría cuántica de campos. Ha dirigido nueve tesis doctorales. Ha publicado más de un centenar de artículos en revistas científicas. Ha sido Director del Departamento de Matemáticas de la Universidad Carlos III de Madrid y miembro de las Juntas de Gobierno de la RSME (1996–2001) y de la Real Sociedad Española de Física (1992–2006).

Más información:

http://www.rsme.es/content/view/1871/1/

Etiquetas:
Categorias: General

Florian Luca en los coloquios ICMAT-UAM


El próximo viernes 4 de diciembre Florian Luca (Universidad de Witwatersrand, Johannesburg) impartirá la conferencia “m-adas diofánticas”, dentro del programa de coloquios conjuntos ICMAT-UAM. Será a las 11:30 en el Aula Naranja del ICMAT. Javier Cilleruelo, investigador de la UAM, miembro del ICMAT y organizador de la jornada, presenta a Florian Luca.

Florian Luca (1969, Rumanía), con más de 500 artículos y más de 200 colaboradores,  es uno de los más matemáticos más prolíficos y versátiles en la teoría de los números. Actualmente es investigador de la Universidad de Witwatersrand, Johannesburg, en Sudáfrica.

Ha hecho importantes aportaciones en la teoría multiplicativa de números, entre las que destaca la resolución, junto con Carl Pomerance y Kevin Ford, de la conjetura de Paul Erdos que afirma que las funciones phi de Euler y la función “suma de dividores de un número” comparten infinitos valores. Es también uno de los grandes expertos en ecuaciones diofánticas y en propiedades aritméticas de sucesiones de recurrencia como las sucesiones de Fibonacci o de Lucas.

En las numerosas ocasiones que Florian Luca ha visitado el Departamento de Matemáticas de la UAM y el ICMAT, el que escribe esta reseña ha tenido la suerte de trabajar con él en varios trabajos y ser testigo de la energía y rapidez con la que aborda los más variados problemas. Mañana, viernes 4 de diciembre, vuelve a visitarnos, en esta ocasión para impartir uno de los coloquios conjuntos ICMAT-UAM, bajo el título: “m-adas diofánticas”, Florian Luca . Será a las 11:30 en el Aula Naranja del ICMAT.

Florian Luca

Un problema de Diofanto de Alejandría

En el coloquio va a hablar sobre uno de los problemas clásicos de la teoría de números y que se remonta a Diofanto de Alejandría (Siglo III). Una cuadrupla diofántica es un conjunto de cuatro enteros positivos, como {1, 3, 8, 120} con la propiedad de que al sumar 1 al producto de cualesquiera dos de ellos se obtiene un cuadrado. En general una m-ada diofántica es un conjunto de m enteros positivos con dicha propiedad. Se sabe que hay infinitas cuatruplas diofánticas y que no hay 6-adas diofánticas . No se conoce ningún ejemplo con m = 5 pero si los hay, entonces hay sólo un número finito de ellos.  Florian Luca hablará sobre este problema y sus generalizaciones  a números racionales y otros anillos.

 “m-adas diofánticas”, Florian Luca (Universidad de Witwatersrand, Johannesburg). Viernes 4 de diciembre, 11:30. Aula Naranja, ICMAT.

—-

avier Cilleruelo es  investigador de la UAM y miembro del ICMAT

Etiquetas: , , ,
Categorias: General

Fernando Codá Marques y André Neves obtienen el Premio Oswald Veblen de Geometría 2016


La última edición del premio Oswald Veblen de Geometría ha reconocido el trabajo conjunto del brasileño Fernando Codá Marques (Princeton University) y el portugués André Neves (Imperial College London). El jurado ha destacado su demostración de la Conjetura de Willmore, “una cuestión fundamental sobre las propiedades de las superficies curvas en el espacio euclidiano tridimensional”. Francisco Torres, investigador predoctoral del ICMAT, explica la conjetura y su reciente resolución.

El matemático Oswald Veblen da nombre al galardón mas importante en el campo de la geometría

El prestigioso premio Veblen de Geometría, creado en 1961 en memoria del matemático estadounidense Oswald Veblen, es otorgado cada tres años por la Sociedad Americana de Matemáticas (AMS). Los galardonados en la edición de 2016 son el matemático brasileño Fernando Codá Marques y el portugués André Neves: el comité destaca su extraordinario trabajo en el área de la geometría diferencial, y en especial su demostración de la célebre conjetura de Willmore [1].

El trabajo de Marques y Neves da respuesta a una cuestión fundamental sobre las propiedades de las superficies curvas en el espacio euclidiano tridimensional, que intrigaba a los geómetras desde que el matemático Thomas Willmore la enunciara en 1965.

Figura 1. Esfera y toro.

A cada superficie cerrada y sin borde (por ejemplo, la superficie de un flotador o de una esfera) se le puede asociar una magnitud, la llamada energía de Willmore, que nos da una idea de cómo de curva es la superficie y, además, de hasta qué punto la curvatura en distintas direcciones trazadas sobre ella es desigual.

Volviendo al caso de la esfera, en cualquier punto de su superficie, se comba de la misma manera en todas direcciones. No ocurre así con la superficie del flotador (lo que los matemáticos llamamos toro): la curvatura de la línea verde (en la imagen 1) es mayor que la de la roja. Con algunas consideraciones adicionales, esto se acaba por manifestar en el hecho de que la esfera es la superficie con la menor energía de Willmore posible.

Como muchos otros conceptos matemáticos, la energía de Willmore no es una excepción al llamado principio de Arnold: ninguna noción matemática lleva el nombre de su auténtico descubridor (el principio de Arnold tampoco). Esta magnitud ya había sido considerada a principios del siglo XIX por los matemáticos franceses Sophie Germain y Simon Denis Poisson, como medida de la energía elástica almacenada en una superficie curvada. Aparece también en otros campos de la física, como la Relatividad General e incluso en la biología celular: las formas que adoptan algunas vesículas (los glóbulos rojos, por ejemplo) parecen deberse a que tratan de minimizar la energía de Willmore asociada a sus membranas.

La conjetura de Willmore

Willmore quería entender el comportamiento de esta energía según el tipo de superficie. Primero habrá que pensar cuántos tipos fundamentales de superficies diferentes existen. Diremos que dos superficies pertenecen a la misma especie si podemos deformar una en la otra sin rasgarla, como si fuese perfectamente moldeable. De esta manera, las superficies cerradas, orientables y sin borde se clasifican según su género, o número de agujeros:

Figura 2. Géneros.

La superficie de la esfera tiene género 0, así como la de cualquier otra superficie que podamos obtener deformándola; las superficies con forma de neumático (lo que los matemáticos llaman un toro) tienen género 1.

Ya sabemos que de entre todas las superficies posibles es la esfera la que minimiza la energía. Willmore se preguntó entonces qué ocurriría si se circunscribía a las superficies de género 1, los toros, y conjeturó que, de entre todas las formas que un toro pudiese adoptar (incluyendo aquellas en las que se autointersecaba), aquella que minimizaba la energía de Willmore era la del llamado toro de Clifford. El toro de Clifford es la superficie de revolución que se obtiene al girar una circunferencia de radio 1 cuyo centro está una distancia de √2 del eje de revolución (las unidades concretas de longitud no importan, puesto que la energía de Willmore—y esta es una de las propiedades que la hacen más interesante– es invariante frente a cambios de escala de la superficie: dilataciones y contracciones).

La pregunta de Willmore, sencilla y natural, se ha resistido a los geómetras hasta que Marques y Neves han conseguido darle respuesta afirmativa: el toro de Clifford es la superficie de género 1 (y superior) que minimiza la energía de Willmore; todas las demás tienen una energía mayor. Pero el interés de su resultado no radica solamente en la respuesta en sí: cuando preguntas tan naturales son tan de difíciles de responder suele deberse a que requieren considerar nuevas técnicas y conceptos que nos permitan comprender con mayor claridad el paisaje más amplio en que estas preguntas se encuentran. El trabajo de Codá Marques y Neves ha abierto así nuevas perspectivas en muchos otros problemas del área.

Los premiados

Fernando Codá Marques (Princeton University)

Fernando Codá Marques (São Carlos, 1979) es Investigador Titular en el Instituto de Matemática Pura y Aplicada (IMPA) de Río de Janeiro y profesor en la Universidad de Princeton. Estudió el grado y máster de Matemáticas en Brasil, en la Universidad Federal de Alagoas y en el IMPA, respectivamente. Obtuvo su doctorado en la Universidad de Cornell, con José F. Escobar como supervisor.

André Neves (Imperial College London)

André Arroja Neves (Lisboa, 1975) es profesor en el Imperial College de Londres. Obtuvo su licenciatura en Matemáticas en el Instituto Superior Técnico de Lisboa, y se doctoró en la Universidad de Stanford, con Richard Schoen como supervisor.

[1] F. C. Marques, A. Neves, Min-Max theory and the Willmore conjecture, Annals of Mathematics (2014).

Más información:

http://www.ams.org/news?news_id=2866

—-

Francisco Torres es investigador predoctoral del ICMAT.

Etiquetas: , , ,
Categorias: General

El misterio del vuelo MH370 ayuda a los matemáticos a mejorar las técnicas de rescate en el mar


La revista Nonlinear Processes in Geophysics publicaba ayer los resultados de Víctor José García Garrido y de Ana María Mancho (ICMAT) en los que se revisa la estrategia de búsqueda del vuelo desaparecido el 8 de marzo de 2014.  Los investigadores han determinado el estado del océano en el área de impacto y en el de búsqueda, y hubo áreas rastreadas donde era improbable hallar restos y no se exploraron otras que el modelo apunta como prioritarias.Esta metodología se podría aplicar de forma efectiva y en tiempo real en otras catástrofes relacionadas con la simulación de la evolución de fluidos; misiones de rescate, vertidos accidentales de crudo, etc.

El avión desaparecido fotografiado en diciembre de 2011 en París – Foto CC Lauren Errera.

La desaparición del vuelo MH370 de Malaysia Airlines el 8 de marzo de 2014 es uno de los grandes enigmas de nuestro tiempo. Dieciséis meses después, el 29 de julio de este año, un fragmento de ala apareció en la isla de Reunión. Del resto del avión, ni rastro. El desconocimiento sobre el punto de impacto de la aeronave, de la manera en la que pudo haber colapsado, de las formas de los restos, etc. hicieron de éste un seguimiento excepcionalmente difícil, en el que los primeros momentos fueron claves para la búsqueda de los restos en superficie. Pero, ¿y si no hubieran buscando en el sitio adecuado?

Ayer, la revista Nonlinear Processes in Geophysics publica los resultados del trabajo de investigación del grupo de Ana María Mancho, investigadora del ICMAT, Stephen Wiggins de la Universidad de Bristol y director del Laboratorio ICMAT con su nombre, en el que proponen emplear novedosas herramientas matemáticas para identificar las estructuras geométricas de los fluidos que rigen el transporte en el océano, y así entender cómo se podrían haber movido los restos del avión durante los primeros meses tras su caída.

Para ello, los investigadores han determinado el estado del océano en el área de búsqueda prioritaria en el momento del impacto y en las semanas siguientes. Han combinado la información disponible en diferentes fuentes de datos oceánicos con estas técnicas matemáticas, provenientes de la teoría de sistemas dinámicos. El resultado: hay zonas en las que era más probable que hubieran aparecido restos y no se exploraron, y al revés: áreas en las que era muy difícil que hubieran llegado los vestigios y, sin embargo, se rastrearon con esmero.

“Nuestra descripción sitúa zonas calmas, en las que es más probable que se hubieran localizado los restos, y barreras, que es muy difícil que puedan ser atravesadas por partículas”, explica Víctor José García Garrido, investigador postdoctoral del ICMAT y coautor del resultado, que publica hoy la revista. “Nuestro enfoque hubiera podido ayudar a mejorar y optimizar las búsquedas”, asegura.

Los oceanógrafos normalmente consideran trayectorias individuales de los objetos en el océano para predecir su movimiento y estudiar los procesos de transporte. “Nuestra aproximación desvela las estructuras geométricas que hay por debajo de las corrientes, es una descripción más global. De esta forma aparecen zonas donde hay remolinos, corrientes en chorro, barreras…”, describe el investigador.

Los modelos se validan además con los datos a tiempo real del océano que aportan los GPS de las boyas oceánicas. Es más, su resultado sirve para corroborar las diferentes bases de datos que simulan la evolución del fluido. “Conforme iban saliendo informaciones nuevas fuimos refinando el análisis. Corroboramos lo que iba saliendo como noticia, y el resultado ha sido un estudio más en profundidad, porque hemos integrado diferentes ideas”, explica García Garrido.

El estudio comenzó un mes después de la desaparición del avión, por lo que sus conclusiones no han podido ser aplicadas para este problema en tiempo real. La herramienta permite predicciones en periodos cortos de tiempo (hasta un par de meses), ya que para largos intervalos, como en el océano tienen lugar gran cantidad de fenómenos caóticos, hay mucha incertidumbre y error. Sin embargo, los investigadores esperan poder aplicar el modelo en tiempo real y de manera efectiva en otras catástrofes relacionadas con la simulación de la evolución de fluidos; misiones de búsqueda y rescate en el mar, vertidos accidentales de crudo, etc.

Referencia: V. J. García-Garrido, A. M. Mancho, S. Wiggins, and C. Mendoza. A dynamical systems approach to the surface search for debris associated with the disappearance of flight MH370. Nonlin. Processes Geophys., 22, 701-712, 2015.

 

Etiquetas: , ,
Categorias: General

Educación IV: La formación del profesorado


Manuel de León lo dice claro: “la educación es un grave problema sin resolver en España”. En esta entrada habla de una de las cuestiones clave, la formación del profesorado, tanto la inicial –insuficiente en materias concretas como matemáticas, según muchos expertos– como la continua, que permite a los docentes estar al día, tanto en lo que se refiere a las nuevas técnicas pedagógicas como al contenido de las materias que imparten, y que se ha visto muy reducida por la crisis. De León dedica la siguiente entrada a este tema.

Estos días se está hablando mucho sobre la educación, entre otras cosas por ese Libro Blanco encargado por el Gobierno a José Antonio Marina, pero también porque afrontamos una importante cita electoral el próximo 20 de diciembre y los partidos políticas afinan sus propuestas sobre la educación. Porque no se puede obviar: la educación es un grave problema sin resolver en España.

Uno de los temas fundamentales en nuestro sistema educativo es el de la formación de los profesores. Es importante, como se ha subrayado muchas veces, considerar dos aspectos. El primero, es el de la formación inicial. Creo que hay consenso que no es la idónea. Si miramos el caso de las matemáticas para los profesores de primaria, vemos que los contenidos son escasos, con lo que malamente se les puede pedir que transmitan adecuadamente los conceptos. Pero lo mismo ocurre en el nivel universitario, al que ya los estudiantes acuden en general con graves carencias, lo que se percibe de manera más clara en las carreras de las llamadas ciencias duras. Se precisa sin duda alguna una remodelación de las carreras que dan opción a la obtención de un título que permita dedicarse a la enseñanza.

El segundo aspecto formativo es el de la formación continua o permanente de los docentes. Aquí se ha perdido mucho. Los recortes en educación y la escasa coordinación entre las Comunidades Autónomas y el Estado han resultado fatales para lo que es una necesidad. El profesorado debe estar al día, tanto en lo que se refiere a las nuevas técnicas pedagógicas como al contenido de las materias que imparten. En el caso de las matemáticas, es encombiable la labor de algunas sociedades como la FESPM que mantienen sus cursos a distancia, o, entre las sociedades federadas, la de la Thales, que organizan su Proyectos Thales-CICA desde hace años.

Esta formación podría mejorarse de muchas maneras. En estos tiempos de reflexión electoral, se avanzan propuestas novedosas, como la del MIR educativo. No es mala idea, aunque habría que precisarlo, los estudiantes no son pacientes de un hospital. Se puede entender este MIR como un período prolongado de prácticas, bien estructurado, y con el que el nuevo docente se curtiría en sus tareas antes de navegar solo.

Si se quiere mejorar la docencia, el conseguir mejores docentes es una parte de la tarea, aunque no la única porque el sistema es muy complejo y requiere actuaciones en muchos niveles. Un programa tipo Maths for America, puesto en marcha por la Fundación Simons, que animara a los mejores estudiantes a seguir carreras docentes en Secundaria no sería tampoco una mala idea. En España los mejores expedientes no terminan habitualmente en la Secundaria, y es una pena.

Para finalizar esta entrada, recomiendo una visita al blog o web de José Antonio Marina. Contiene muchísima información sobre su proyecto de libro blanco que es muy útil, y en el que, además, llama continuamente a la colaboración de los expertos para que se le proporcionen ideas.

___________

Manuel de León (CSIC, Real Academia de Ciencias, Academia Canaria de Ciencias) es Profesor de Investigación en el ICMAT y miembro del Comité Ejecutivo de ICSU.

 

Etiquetas: , , ,
Categorias: General

Sobre las demostraciones falsas en matemáticas (I)


Esta semana el profesor de la Federal University Oye Ekiti (Nigeria), Opeyemi Enoch, afirmó haber resuelto la Hipótesis de Riemann. Nada demasiado extraño, las supuestas demostraciones de este y otros problemas famosos de las matemáticas llegan todas las semanas a los buzones de los investigadores en el campo, a los foros científicos, a los repositorios matemáticos… Aun teniendo más o menos sentido, casi todas las pruebas (1-epsilon) suelen ser falsas. Así fue también en este caso, pero, extrañamente –y, he aquí lo curioso de esta historia–, medios como BBC y The Telegraph lo dieron por cierto.

 

Opeyemi Enoch en el Congreso Internacional de Matemáticas y Ciencias Computacionales de Vienna

Doch Kovalevskaya. El lunes 16 de noviembre aparecía en la prensa Nigeriana un llamativo titular: “Nigerian solves 156-yr-old Riemann mathematics hypothesis” (“Un nigeriano resuelve la hipótesis matemática de Riemann de 156 años de antigüedad”).  El subtítulo: “Obtiene un millón de dólares”. Efectivamente, el problema es uno de los siete escogidos por la Fundación Clay y su resolución tiene una recompensa de esa cantidad.  Siempre que sea correcta, claro.

Este no era el caso, como muchos sospecharon. Aunque quizás, cuando un ruso que no se cortaba las uñas subió a un repositorio online su prueba de la Conjetura de Poincaré, que nunca mandó a ninguna revista científica de prestigio, muchos colegas quizás levantaron la ceja de igual manera. Y luego fue cierto (Perelman protagonizó así el ZAS en toda la boca más memorable de los últimos años).

Aunque aquí el resultado ni siquiera se llegó a discutir en el mundo académico, sino que saltó directamente del periódico nigeriano Vanguard (y de otros blogs nacionales, siempre con una redacción parecida) a la BBC. No sé, BBC, seguramente si se resuelve la conjetura no aparecerá en blogs desconocidos, será portada del New York Times y trending topic mundial (bueno, o al menos merecería serlo). Al día siguiente, además el planeta sucumbiría al caos, dejarían de funcionar las comunicaciones por internet, las transacciones digitales dejarían de ser seguras (la codificación que emplea como base los números primos dejaría de ser robusta, ya que se conocería la distribución de estos números, como consecuencia de la demostración), y ríete tú de las profecías del efecto 2000.

Tranquilos, nada de esto parece inminente. Además, en realidad se trabaja con muchas otras técnicas criptográficas, que se siguen desarrollando cada día, pero me he permitido la licencia dramática y el guiño al libro Los Humanos, de Matt Haig. Solo por unos segundos, que los matemáticos somos gente seria. O no.

En fin, lo llamativo del acontecimiento es el eco que tuvo la noticia en medios. El martes 17 de noviembre la cadena inglesa BBC World, antes de hablar con cualquier otro matemático sobre el tema, ofrecía en su web una entrevista con Opeyemi Enoch, el profesor de la Federal University Oye Ekiti, dando por hecho que efectivamente había demostrado la hipótesis. Y de cabeza, otros medios, como los periódicos ingleses “The Telegraph” y “The Daily Mail” o el canal de noticias CNN (con algo más de cautela), también informaron del supuesto hallazgo.

Captura de pantalla de la web del Instituto Clay de Matemáticas

Un enfoque bastante popular para abordar el problema

Según relata el periódico nigeriano Vanguard, “Enoch realizó la presentación de la prueba el 11 de noviembre de 2015 en el Congreso Internacional de Matemáticas y Ciencias Computacionales de Vienna”. Su resultado, además “muestra como otros problemas de este tipo se pueden formular, y obtiene la matriz que Hilbert y Poly   predijeron que daría las soluciones”. Y tiene aplicaciones a “la criptografía, la información cuántica y los ordenadores cuánticos”. A por todas, Enoch.

En la noticia de Vanguard ya había varios aspectos sospechosos, que hacían ver que el periodista no había contrastado demasiado la información antes de elaborarla. Entre otras cosas,  afirmaba que era el cuarto de los siete Problemas del Milenio resueltos (por ahora solo hay uno, el Teorema de Perelman, AKA la Conjetura de Poincaré). También destacaba que Enoch, antes de esta importante resolución, había realizado otros avances significativos, como “el diseño de un prototipo de un silo para los campesinos, y la descripción de una técnica científica para la detección y el seguimiento de una persona que esté realizando una misión maligna” (“also discovered a scientific technique for detecting and tracking someone on an evil misión”). No sé yo exactamente qué imagen pública tendría el redactor del texto de los matemáticos, pero mola bastante.

A primera hora, el periodista y divulgador de la ciencia Alex Bellos, ponía en duda el resultado en Twitter, y no mucho después el blog Aperiodical ponía fin al rumor: no, la codiciada hipótesis sigue sin estar resuelta. Entre las diferentes fuentes, el blog cita un hilo en el foro de discusión nigeriano Nairaland en el que ya se refutaba el resultado. En él señalan que el único rastro que han encontrado en internet de la supuesta prueba está en la red social de investigadores academia.edu. En esta plataforma existe un perfil de alguien llamado Opeyemi Enoch que tiene un único paper “Proof of the Riemann hypotesis”. Al abrir el PDF, el autor del trabajo es un tal Werner Raab. Raab quizás tampoco exista, en su web solo aparece un hipervínculo a este mismo artículo, con el título de “La verdad sobre la Hipótesis de Riemann”, de 2013. El autor del post en el foro afirma: “tengo que admitir que no he revisado con detalle el paper (hay bastantes pruebas falsas de la Hipótesis de Riemann en internet para ahogarse en ellas), pero solo con un rápido vistazo a los métodos que emplea, parece que hay un 0% de posibilidades de que el artículo sea correcto”. Tal y como aseguran en Aperiodical, “el método que parece estar empleando es un enfoque bastante popular en la investigación actual sobre el problema”.

El congreso en el que supuestamente presentó el resultado también parece un fake bastante gracioso. La URL es “computer.conference-site.com”; las fotos, que muestran a Enoch, entre otras personas, dando una charla, parecen de un seminario bastante modesto que no se acaba de corresponder con el hotel de lujo en el que supuestamente tuvo lugar; la organizadora local es una investigadora que se describe a sí misma en su web como “una persona de múltiples talentos” que hizo su tesis en “investigación cósmica”, siendo “una de las pocas mujeres científicas que fueron capaces de obtener un título de doctorado en este campo difícil” (ale, patada en la boca innecesaria para las mujeres científicas, ya que estamos).

Aun con toda esta extravagancia, el rumor de la supuesta demostración ha tenido su recorrido. Lo ha tenido que desmentir Marcus du Sautoy, profesor en la Universidad de Oxford, experto en el campo y divulgador, ayer miércoles en el canal 4 de la BBC, e incluso el Instituto Clay de Matemáticas, en The Herald. Bueno, más o menos, según su política interna, el Instituto no hace comentarios sobre las soluciones de los Problemas del Milenio, pero tienen en su web el estatus de los problemas y la Hipótesis sigue en manteniendo el estado de “no resuelta”.

Etiquetas: , , , , ,
Categorias: General

Educación III: ¿de 0 a 18 años?


Manuel de León (ICMAT) reflexiona sobre la duración de la etapa obligatoria de la educación, a raíz de la propuesta del PSOE de alargarla desde la guardería hasta los 18 años.

Se ha establecido un debate social sobre la duración de la educación obligatoria, motivado por la propuesta del Partido Socialista Español (PSOE) de extenderla hasta los 18 años comenzando ya en la guardería. Vaya por delante que faltan detalles, porque la primera cuestión a debatir es si esta extensión sería a cargo de las administraciones públicas o no. La segunda cuestión a desarrollar es cuáles serían los contenidos de esa educación de los 17 y 18 años.

Cuando se creó la llamada Educación Secundaria Obligatoria (ESO), que llevó la educación hasta los 16 años, todos los que creemos que la educación es uno de los pilares básicos de la sociedad lo aplaudimos. Sin embargo, este logro social llevaba un caballo de Troya dentro. Si vamos a las tablas que comparan el fracaso educativo en diferentes países, vemos que España las lidera año tras año. Este es de hecho uno de los más claros síntomas del fracaso educativo español.

¿Causas? Una de ellas es precisamente que muchos estudiantes languidecen con 15 y 16 años en las aulas, porque no quieren estar, por diversos motivos que convendría analizar. Y una parte de estos alumnos insatisfechos provocan problemas en las aulas, e impiden que el resto pueda aprovechar las clases adecuadamente. Convendría que a los 14 años contáramos con una FP potente, con contenidos científicos y de humanidades (no se trata solo de aprender un oficio, sino de “construir” un ciudadano integrado plenamente en la sociedad) y con la posibilidad siempre de contar con pasarelas a una educación más tradicional y que tiene como fin llegar a la universidad.

Si ahora extendemos la educación obligatoria a los 18 años, estaríamos más forzados sí cabe a definir claramente de qué contenidos estamos hablando y qué objetivos perseguimos. Ya sabemos que el infierno está empedrado de buenas intenciones, y en este caso nos jugamos mucho.

Algunas voces arguyen que hay un interés espurio en esta propuesta, porque al final, si tenemos a todos los jóvenes hasta los 18 años las cifras del paro se maquillarán. No creo de ninguna manera en esa intención, y sí en una idea progresista de poner la educación en primera línea de una actuación política,que no puedo más que aplaudir. Pero estudiemos todo con mucho detalle, consultemos a los profesores (ellos conocen mejor que nadie la realidad de nuestras aulas y muchas veces son ignorados por los partidos políticos), identifiquemos los problemas a los que esta reforma se podría enfrentar y las ganancias de bienestar (hemos leído recientemente propuestas de educación al servicio de las empresas que son muy peligrosas si no se clarifican).

Estamos en un momento de cambio social muy importante, el mundo ha experimentado cambios a una globalidad que pone en duda los valores tradicionales, y marcar nuevos rumbos es indispensable. Y esto es mucho más importante para España, un país que debe apostar por la educación y la investigación para construirse un futuro, porque nuestro mejor valor es precisamente nuestra gente; dotémosla pues de los instrumentos adecuados.

___________

Manuel de León (CSIC, Real Academia de Ciencias, Academia Canaria de Ciencias) es Profesor de Investigación en el ICMAT y miembro del Comité Ejecutivo de ICSU.

Etiquetas: , ,
Categorias: General

Regreso al futuro: Una semana bayesiana en ICMAT


Hoy y mañana, 10 y 11 de noviembre, el ICMAT acoge una serie de seminarios que revisarán algunos avances recientes en la metodología bayesiana, una de las principales herramientas de la estadística moderna. Numerosos expertos internacionales  acudirán a estas sesiones que se recogen –las del miércoles– como SPOR Fall Day, la primera sesión del grupo Stats, Probs and OR del ICMAT. Cuentan con el apoyo de AXA, la acción COST sobre Expert Judgement y el Programa de Excelencia Severo Ochoa en ICMAT. David Ríos, director de la Cátedra de Riesgos Adversarios AXA-ICMAT y uno de los organizadores de este evento, habla del programa en el marco del auge de estos métodos estadísticos en la inferencia, predicción y toma de decisiones.

 

Estamos cumpliendo en estos días el 30 aniversario de la parte primera de la brillante película de culto Regreso al Futuro. Aprovechando que su segunda parte tenía lugar en 2015, se han venido revisando las predicciones que desde la película se hicieron sobre cómo sería la vida en este año. Pues bien, una de las realidades que no acertaron a predecir en la película fue el auge de los métodos bayesianos para inferencia, predicción y toma de decisiones, para los que se puede hablar también de un auténtico regreso al futuro.

En efecto, esta metodología científica tuvo un inicio prometedor con la propuesta por Thomas Bayes de la fórmula que lleva su nombre, un resultado muy sencillo matemáticamente, pero que describe la forma óptima de actualizar la información de la que se dispone en cada momento en presencia de nueva evidencia. Sus resultados tuvieron un papel preeminente en la Estadística del s. XIX con gigantes como Laplace. Sin embargo, a principios del s. XX, la influencia de Fisher, Neyman y los Pearson condujeron al predominio de los métodos clásicos y del concepto frecuentista de probabilidad en la Estadística. Los grandes De Finetti y Savage constituyeron excepciones principales al aportar sus resultados fundacionales sobre la Estadística y la Teoría de la Decisión Bayesianas.

No es hasta los trabajos de Gelfand y Smith sobre Métodos de cadenas de Markov Montecarlo cuando se produce un verdadero movimiento de liberación en los modelos, que elimina la tiranía de los llamados modelos conjugados que constreñían seriamente a la aproximación bayesiana. Desde entonces, se ha producido un verdadero auge de estos métodos que son casi estándar en muchas disciplinas, siendo adoptados por organizaciones como Google, Amazon, Bayes Forecast, la FDA o Chevron, en muchos de sus problemas de inferencia, predicción y toma de decisiones en incertidumbre. Sus principios básicos son concebir las probabilidades como medidas del grado de creencia de un sujeto sobre la verdad de una proposición; en presencia de información adicional, actualizar las probabilidades mediante la fórmula de Bayes; y, finalmente, proponer que la toma de decisiones en condiciones de incertidumbre se realice mediante el principio de máxima utilidad esperada.

Durante esta semana, se celebrarán diversos seminarios en ICMAT para revisar algunos avances recientes en la metodología bayesiana. El martes 10 a las 12, F. Patras (CNRS-U. Nice), en el seminario FBBVA-ICMAT, hablará sobre avances en filtros de partículas, una clase de algoritmos de última generación que permiten la predicción eficiente en modelos dinámicos no lineales. El miércoles 11, a partir de las 11, F. Ruggeri (CNR-IMATI)  discutirá avances recientes en robustez bayesiana, lo que permite afrontar el problema de la dificultad de obtener distribuciones a priori; J. Martin (UNEX) planteará problemas de clasificación en los que se producen errores en tales clasificaciones y cómo podemos mejorar este proceso con métodos bayesianos; finalmente, M.E. Castellanos (URJC) presentará avances en la metodología ABC que facilita los cálculos en problemas de inferencia de gran escala, los famosos big data. Las sesiones del miércoles se recogen como SPOR Fall Day, la primera sesión del grupo Stats, Probs and OR del ICMAT y cuentan con el apoyo de AXA, la acción COST sobre Expert Judgement y el Programa de Excelencia Severo Ochoa en ICMAT.

2015 en Regreso al Futuro.

Más información

Duality for Particle Gibbs samplers“, FRÉDÉRIC PATRAS, CNRS – Université de Nice Sophia Antipolis. BBVA – ICMAT Seminar on “Mathematical Methods for Ecology and Industrial Management”.  Martes 10 de noviembre, 11:00. Aula Naranja, ICMAT.

Advances in Bayesian Methods“. SPOR Fall Day,  miércoles 11 de noviembre, a partir de las 11:00. Aula Gris 1, ICMAT
FABRIZIO RUGGERI,  CNR – IMATI
JACINTO MARTÍN,  Universidad de Extremadura
Mª EUGENIA CASTELLANOS,  Universidad Rey Juan Carlos, Madrid

David Ríos es director de la Cátedra AXA–ICMAT en Análisis de Riesgos Adversarios y miembro de la Real Academia de Ciencias

Etiquetas: , , , , , ,
Categorias: General