Archivo de mayo, 2011

Gunther Uhlmann en el Coloquio UAM-ICMAT

El martes próximo, día 31 de mayo, a las 12:00 el profesor Gunther Uhlmann,  actualmente Profesor en el Departamento de Matemáticas de la Universidad de Washington, en Seatle, impartirá el Coloquio de Matemáticas UAM-ICMAT.

 

Gunther Uhlmann es chileno, y se licenció en la Universidad de Chile en 1973, doctorándose  en el MIT en 1976, con una tesis titulada: Hyperbolic Pseudodifferential Operators with Double Characteristics dirigida por Victor W. Guillemin. Desde entonces vive en los Estados Unidos, donde ha sido profesor en diferentes universidades y centros de investigación. Ha dirigido hasta ahora 21 tesis doctorales, en su mayoría en la Universidad de Whasington.

Entre los numerosos premios y distinciones conseguidos, destacan el Bocher Prize, de la AMS (American Mathematical Society) en 2011, y el  Kleinman Prize, de SIAM (Society of Industrial and Applied Mathematics) en 2011. Ha sido conferenciante plenario o invitado en muchos congresos internacionales, entre ellos el ICM de Berlín en 1998.

La investigación de Uhlmann fue inicialmente sobre análisis microlocal y propagación de singularidades de ecuaciones diferenciales, en particular sobre los fenómenos de la refracción cónica. Sus trabajos en problemas inversos han sido de la mayor relevancia.

Uno de sus resultados está relacionado con la tomografía de impedancia eléctrica, técnica que mide la conductividad eléctrica en los tejidos del cuerpo para generar imágenes que ayudan a la detección oportuna de tumores como los mamarios.

El procedimiento es mucho menos invasivo y más seguro que las mamografías convencionales que emplean rayos X. Uhlmann explica que él se centró en obtener, a partir del coeficiente (“la expresión numérica que refleja las propiedades de un cuerpo”) de una ecuación, antecedentes sobre qué mediciones debieran tomarse, o cuáles ondas emplear, para poder detectar los tumores. Con esa información, el Rensselaer Polytechnic Institute de los Estados Unidos desarrolló el tomógrafo especializado en cáncer mamario.

Esa tecnología se emplea también en la industria y permite determinar filtraciones en tanques que guardan contaminantes porque la conductividad del agua o de un líquido es mayor que la del suelo. También es posible detectar corrosión o fisuras en aviones, sin desmantelarlos.

En esta conferencia en Madrid describirá los progresos teóricos y experimentales en lograr la invisibilidad de objetos a la detección por ondas electromagnéticas, acústicas y cuánticas.

Estos son los detalles de la conferencia:

31 de mayo  a las 12:00  en el aula 520 del Departamento de Matemáticas de la UAM.

Gunther Uhlmann, University of Washington.

Title: Cloaking and Transformation Optics

Etiquetas:
Categorias: General

El problema de los tres cuerpos: cuando tres son multitud

Supongamos que A se siente atraído por B y que B, al mismo tiempo y en clara correspondencia, se siente atraído por A. Salta a la vista que con un lugar adecuado y cierta dosis de intimidad el problema tiene fácil solución. Si de pronto aparece C y tanto A como B se sienten atraídos por él (o ella), ambos son correspondidos y la inicial atracción entre los dos primeros no se ha evaporado (en otras palabras, todos se sienten atraídos por todos)… lo que salta a la vista es que el escenario cambia notablemente. Podemos pensar que, con un lugar adecuado, cierta dosis de intimidad y, ahora, un poco de orden, la situación no es tan peliaguda. Lo que en términos de relaciones humanas puede parecer una cuestión de equilibrio personal, trasladado a un lenguaje físico-matemático se convierte en un galimatías irresoluble.

Una de las grandes aportaciones de Isaac Newton a la ciencia fue la Ley de la Gravitación Universal. Según cuenta la leyenda, se le cayó una manzana en la coronilla y lo primero que se le pasó por la cabeza, en paráfrasis, fue lo siguiente: “todos los cuerpos con masa sufren una fuerza de atracción entre sí; esta fuerza es proporcional al producto de sus masas e inversamente proporcional al cuadrado de la distancia que los separa, por grande que ésta sea.” Con esta ley era capaz tanto de explicar el movimiento de la Luna alrededor de la Tierra como el de la manzana al caer del árbol (¡!).

Otra de sus grandes aportaciones, y pararemos aquí puesto que de lo contrario no terminaríamos nunca, fueron las tres leyes de la dinámica, la segunda de las cuales dice que la aceleración de un cuerpo es proporcional a la fuerza que experimenta. La aceleración, en términos matemáticos, se puede expresar como la derivada segunda de la posición de un cuerpo respecto del tiempo. Si consideramos estos dos ingredientes, nos situamos en el primer caso (A y B se atraen mutuamente) y reelegimos nuestras coordenadas para ver las cosas desde el punto de vista de A (o de B, lo mismo da) obtendremos una ecuación diferencial de segundo orden. Este tipo de ecuaciones diferenciales (segundo orden) se pueden transformar en un sistema de ecuaciones diferenciales de primer orden, más tratables si queremos demostrar la existencia de la solución al problema y obtener una analíticamente cerrada. En este escenario nos encontramos ante el problema de los dos cuerpos, ejemplos del cual pueden ser el sistema Sol-Tierra o Tierra-Luna. En este caso, después de algún tiempo peleando con nuestras variables distancia y ángulo, considerando que uno de los dos cuerpos se encuentra fijo en el origen de coordenadas y que la fuerza entre ellos obedece la ley de la gravitación universal, logramos entender que el segundo se mueve en torno al primero siguiendo órbitas en forma de elipses. En otras palabras: encontramos una solución analítica de nuestro problema, lo que nos proporciona la posición y velocidad de cada uno de los cuerpos en todo tiempo.

C se suma a la fiesta. Como era de esperar, lo arruina todo. Nos topamos ahora con el archiconocido problema de los tres cuerpos. Está claro que no se trata de un problema teórico: el sistema Sol-Tierra-Luna encaja perfectamente en este esquema. Queremos obtener la solución a nuestras ecuaciones… ¿qué ocurre? La solución analítica no existe. Este resultado fue demostrado por el matemático francés Henri Poincaré: para un sistema de n cuerpos, cuando n es igual o mayor a tres, no existe solución analítica que podamos obtener por medio de cuadraturas. ¿Quiere decir esto que el problema de los tres cuerpos no tiene solución en absoluto? Por fortuna no. Si nos paramos a pensar un segundo, tanto la Luna como el resto de planetas trazan caminos en el cielo que los científicos conocen con precisión, siendo capaces de orientar sus telescopios para observarlos con todo detalle. Que no podamos encontrar una solución en términos de funciones elementales no quiere decir que tal solución no exista. De hecho, el matemático finés Kart Fritiof Sundman proporcionó en 1912 una solución al problema de los tres cuerpos por medio de una serie convergente. Esto último es un claro ejemplo de cómo evoluciona la ciencia matemática: un obstáculo, más que de motivo para el desaliento, sirve para agudizar el ingenio y encontrar atajos, rodeos y, sobre todo, nuevos caminos hacia los resultados deseados. Con ánimo de concretar, en el caso de los tres cuerpos se puede atacar el problema desde un punto de vista de teoría de perturbaciones: se parte de un problema de dos cuerpos y se considera que el tercero “perturba” la posición de los dos primeros.

Y… ¿qué podemos decir de D, E, F…? Si se les ocurre asomar la cabeza a los matemáticos les va a dar un infarto. ¿Problema teórico? Ni mucho menos: tenemos el Sistema Solar ante nuestras narices para recordarnos que hay mucho más que calcular…Ser capaces de describir con precisión el movimiento de las planetas es un ejemplo claro de la potencia de los métodos numéricos y las modernas técnicas de computación aplicados a sistemas de ecuaciones diferenciales: no podemos encontrar la dichosa solución analítica, pero enseñando a sumar, restar, multiplicar y dividir a una máquina, nos acercamos a ella con gran precisión… Las matemáticas, con ayuda de los ordenadores, nos enseñan a bailar la danza celestial.

____________

Fernando Jiménez Alburqueque (CSIC) es investigador del Instituto de Ciencias Matemáticas (ICMAT).

Etiquetas:
Categorias: General

XX International Fall Workshop on Geometry and Physics en el ICMAT

Del 31 de agosto al 3 de septiembre de 2011 tendrá lugar en el nuevo edificio del Instituto de Ciencias Matemáticas (CSIC-UAM-UC3M-UCM) una nueva edición, la vigésima en esta ocasión, del International Fall Workshop on Geometry and Physics

 

En 1992, por iniciativa de Manuel de León (Instituto de Matemáticas y Física Fundamental, Consejo Superior de Investigaciones Científicas) y Alberto Ibort (entonces en el Departamento de Física Teórica II de la Universidad Complutense de Madrid), se propuso la organización de un workshop que sirviera de punto de encuentro de geométras y físicos españoles (más tarde se unieron los colegas lusos). La propuesta tuvo una inmediata acogida entusiasta por parte de los grupos de la UPC (Miguel Muñoz Lecanda) y Zaragoza (José F. Cariñena) quiénes prestaron todo su apoyo.

Aunque los primeros participantes eran mayoritariamente de la Península Ibérica, poco a poco se fueron incorporando investigadores de las cuatro esquinas del mundo y es ahora un auténtico workshop internacional. El workshop de otoño, cómo se le conoce popularmente, proporciona un foro para el intercambio de ideas entre investigadores de distintas áreas de geometría diferencial y algebraica, matemática aplicada y física. Entre los participantes siempre hay un elevado número de entusiastas jóvenes investigadores. Este año se celebra la vigésima edición y vuelve de nuevo a sus orígenes, a Madrid, en las nuevas instalaciones del Instituto de Ciencias Matemáticas.

 

La edición de este año consta de dos mini-cursos:

- Global theory of boundary conditions (Alberto Ibort, U. Carlos III).

- Frobenius manifolds and integrable systems (Franco Magri, U. Milano Bicocca)

y de los siguientes conferenciantes invitados :

- Mauro Carfora (U. Pavia)

- Piotr T. Chruściel (U. Vienna)

- Marisa Fernández (U. País Vasco)

- Gary Gibbons (U. Cambridge)

- Janusz Grabowski (Polish Academy of Sciences)

- Renate Loll (Utrecht U.)

- Álvaro Pelayo (Institute for Advanced Study, Princeton)

- Patrizia Vitale (Naples U.)

 

Además los participantes pueden someter abstracts antes del 20 de mayo de 2011 para contribuciones cortas y pósters. El comité científico completará el programa del encuentro con contribuciones y pósters seleccionados entre todos los abstracts recibidos. Quedan pocos días para que acabe el plazo, así que desde aquí os animamos a inscribiros en el workshop y enviar un abstract. Sólo tenéis que rellenar este formulario online

http://www.icmat.es/congresos/xxifwgp/registration.html

Las actas del workshop se publican desde hace varios años en el American Institute of Physics y son referenciadas en MathSciNet y Web of Science.

Este es el listado de las ediciones anteriores para que los interesados puedan hacer un repaso por la historia del workshop de otoño:

 

Porto, 06-09 September, 2010.
Miguel Costa (CFP/FCUP), Carlos Herdeiro (CFP/FCUP), Filipe Paccetti Correia (CFP/FCUP), Roger Picken (CAMGSD/IST) and João Nuno Tavares (CMUP/FCUP)

Benasque, 06-11 September 2009.
J. F. Cariñena, E. Martínez, J. Clemente-Gallardo (U. Zaragoza), J. N. da Costa (U. Coimbra), and D. Martín de Diego (CSIC, Madrid).

Castro Urdiales, 03-06 September 2008.
Fernando Etayo Gordejuela, Francisco Santos Leal, Mario Fioravanti Villanueva (U. Cantabria) and Rafael Santamaria Sánchez (U. Léon).

Lisboa, 05-08 September 2007.
Rui Loja Fernandes, José Mourão, José Natário, Roger Picken (IST, Lisboa), Aleksander Mikovic (U. Lusófona, Lisboa) and Miguel Rodríguez-Olmos (École Polytechnique Fédérale Lausanne)

Tenerife, 11-16 September 2006.
Juan Carlos Marrero González, Francisco Martín Cabrera, Edith Padrón Fernández, Diana Sosa Martín (University of La Laguna) and David Iglesias Ponte (Consejo Superior de Investigaciones Científicas)

Bilbao, 14-16 September 2005.
Marisa Fernández, Oscar J. Garay, Luis C. De Andrés, José J. Mencía, Josu J. Arroyo and Joseba Santisteban (U. del País Vasco)

Murcia, 20-23 September 2004.
Pascual Lucas, Angel Ferrández, Luis J. Alías, Maria Angeles Hernández, Jose Antonio Pastor, Pablo Chacón (U. Murcia) and Pablo Mira (U. Politécnica de Cartagena)

Coimbra, 8-10 September 2003.
J.M. Nunes da Costa, H. Albuquerque, R. Caseiro, J. Teles Correia and J. Clemente Gallardo (Depto. de Matemáticas, U. Coimbra)

Oviedo, 23-25 September 2002.
J. Fernández Núñez, W. García Fuertes and A. Viña Escalar (Depto. de Física, U.Oviedo)

Miraflores de la Sierra, 27-29 September 2001.
A. González López, M. Mañas, L. Martínez Alonso, M.Á. Rodríguez (Depto. de Física Teórica II, U. Complutense de Madrid), A. Ibort (Depto. de Matemáticas, U. Carlos III de Madrid) and M. de León (Instituto de Matemáticas and Física Fundamental, CSIC)

Vilanova i la Geltrú, 6-8 julio 2000.
X. Gràcia, M.C. Muñoz-Lecanda, N. Román-Roy (Depto. de Matemática Aplicada IV, U. Politécnica de Cataluña) and J. Marín-Solano (Depto. de Economía and Matemáticas Financieras, U. Barcelona)

Medina del Campo, 23-25 September 1999.
M.A. del Olmo and M. Santander (Depto. de Física Teórica, U. Valladolid)

Valencia, 21-23 September 1998.
J. Monterde, O. Gil and J.V. Beltran (Depto. de Geometría and Topología, U. València)

Salamanca, 22-24 September 1997.
P.L. García, A. Fernández (Depto. de Matemática Pura and Aplicada, U. Salamanca) and J. Mateos (Area de Física Teórica, U. Salamanca)

Jaca, 23-25 September 1996.
F.J. Cariñena, M. Fernández Rañada (Depto. de Física Teórica, U. Zaragoza) and E. Martínez (Depto. de Matemática Aplicada, U. Zaragoza)

Santiago de Compostela,18-20 September 1995.
M. Salgado and E. Vázquez (Depto. de Geometría and Topología, U. Santiago de Compostela)

Granada, 26-27 September 1994.
C. Ruiz, A. Romero, M. Sánchez and M.A. Cañadas-Pinedo (Depto. de Geometría and Topología, U. Granada)

Barcelona, 20-21 September 1993.
X. Gràcia, M.C. Muñoz-Lecanda and N. Román-Roy (Depto. de Matemática Aplicada and Telemática, U. Politécnica de Cataluña)

Madrid, 19-20 October 1992.
L.A. Ibort (Depto. Física Teórica II, U. Complutense de Madrid) and M. de León (Instituto de Matemáticas and Física Fundamental, CSIC).

___________________________

María Barbero es investigadora postdoctoral del Instituto de Ciencias Matemáticas.

Etiquetas:
Categorias: General

Congreso de Jóvenes Investigadores RSME

Del 5 al 9 de septiembre de 2011 se celebrará en Soria el Congreso de Jóvenes Investigadores RSME. Esta actividad formará parte de las conferencias, ciclos y congresos organizados durante el año 2011 que conmemoran el centenario de la Real Sociedad Matemática Española (RSME).

La Real Sociedad Matemática Española está celebrando su centenario y con este motivo está organizando una serie de actividades en toda la geografía española. Una preocupación del colectivo matemático español es la de garantizar los recambios a una generación de investigadores que ha conseguido dar un salto gigantesco en las tres últimas décadas.

Que hay recambio, lo demuestra este congreso, promovido por la RSME, y la única duda es si las administraciones y universidades serán capaces de crear las condiciones favorables para que los nuevos investigadores encuentren huecos y consoliden sus puestos en el sistema español de ciencia y tecnología.

El  objetivo del Congreso es compartir la reciente investigación de nuestros jóvenes investigadores, propiciando el intercambio, la colaboración y el  conocimiento mutuo de los diversos trabajos realizados por nuestros colegas. Un hecho relevante de este congreso es que está organizado por los jóvenes para los jóvenes, dando así por su parte un mensaje de madurez y de compromiso con el futuro de la disciplina.

El congreso estará organizado por diversos matemáticos de la  Universidad de Valladolid (Edgar Martínez Moro –Coordinador-, José Ignacio Farrán Martín, Andrés Riaguas Guedán, Irene Márquez Corbella, Fernando Javier Díaz Martínez, Alejandro Piñera Nicolás, Laura Conejo Garrote, y Jaime Lugo). El Comité Científico Científico lo forman:

  • Isabel Fernández (US)
  • Francisco Gancedo (University of Chicago)
  • Javier Parcet (CSIC)
  • Pablo Mira Carrillo (UPCT)

con algunos de  los galardonados con el Premio “José Luis Rubio de Francia” (el premio matemático más prestigioso en nuestro país para jóvenes matemáticos, concedido por la RSME) y los dos conferenciantes invitados españoles del pasado ICM2010 de India.

La lista de conferenciantes plenarios es de primera fila:

  • Marta Casanellas (Departamento de Matemática Aplicada I, UPC)
  • José María Espinar (Departamento de Geometría y Topología, UGr)
  • Daniel Faraco (Departamento de Matemáticas, UAM)
  • Mª del Mar González Nogueras (Departamento de Matemática Aplicada I; UPC)
  • José María Martell (Instituto de Ciencias Matemáticas, CSIC)
  • Alexander Moretó (Departamento de Álgebra , UV)
  • Fernando Muro (Departamento de Álgebra, US)
  • Eulalia Nualart (Université Paris 13)
  • Álvaro Pelayo (Institute for Advanced Study, Princeton)
  • David Pérez-García (Departamento de Análisis Matemático, UCM)
  • José Luis Rodrigo (Warwick Mathematics Institute)
  • Keith Rogers (Instituto de Ciencias Matemáticas, CSIC)
  • Pedro Terán (Departamento de Estadística e Investigación Operativa y Didáctica de la Matemática, UniOvi)

Habrá también sesiones paralelas sobre diferentes temas

SESIÓN 1: Álgebra y Teoría de Números. Organizada por Javier López Peña

SESIÓN 2: Análisis de Matemático. Organizada por Eva Gallardo

SESIÓN 3: Geometría y Topología. Organizada por César Rosales

SESIÓN 4: Matemática Aplicada. Organizada por Ángel Castro

SESIÓN 5: Estadística e Investigación Operativa. Organizada por Rosa Crujeiras y Alberto Rodríguez-Casal

Estas sesiones paralelas constarán de conferencias invitadas y varias comunicaciones orales a propuesta de aquellos participantes que lo deseen.  Además habrá una sesión de pósters donde podrán presentarse trabajos finalizados o trabajos en curso. En ambos casos (póster o comunicación  oral), si desea proponer un trabajo póngase en contacto con el organizador  de la sesión en la que se encuadre antes del 1 de junio de 2011 enviando un  breve resumen. Una vez finalice este plazo el organizador se pondrá en  contacto con los investigadores para informarles sobre su petición.

Animamos a todos los jóvenes matemáticos españoles a que participen en este congreso, con la seguridad que será fructífero para todos ellos y que compartirán una fantástica semana en la hermosa ciudad castellana de Soria por donde pasearon Bécquer, Machado y Gerardo Diego.

Etiquetas:
Categorias: General

El procesamiento de imágenes digitales y su relación con la teoría de muestreo y las ecuaciones en derivadas parciales

Uno de los usos más importantes y útiles del procesamiento de imágenes en la tecnología hoy en día puede ilustrarse con los satélites Landsat. Estos son una serie de satélites que orbitan alrededor de la tierra en una órbita circular grabando imágenes del terreno y de las costas de modo que cualquier lugar del planeta se pueda testear con imagenes cada 8 días. Las imágenes obtenidas por estos satélites son útiles para estudiar el ritmo y la dirección del crecimiento urbano por ejemplo. La comunidad agropecuaria las utiliza para analizar la  humedad del suelo y clasificar la vegetación. En cuanto a los gobiernos, estos pueden detectar y estimar los daños provocados por desastres naturales; y, los organismos de protección del medio ambiente para identificar la contaminación realizada por chimeneas y medir la temperatura del agua de ríos y lagos cercanos a plantas de energía.

Los sensores que están incorporados en los satélites sacan siete imágenes simultáneamente de una región de la Tierra que se quiera estudiar. Cada imagen se digitaliza y se guarda en una matriz rectangular, donde cada entrada es un número que indica la intensidad de señal de un punto (o pixel) de la imagen.
Dichas imágenes suelen tener mucha información redundante, la cual ocupa espacio y uno trata de comprimirla para que esto no ocurra, pero tal compresión puede provocar que la imagen resulte ilegible.  Una de las técnicas más utilizadas hoy en día para este problema de compresión de imágenes es lo que se conoce como descomposición en valores singulares;  correspondiente a uno de los tantos estudios que se realiza en lo que se conoce en matemáticas como el álgebra lineal numérica; pero de este tema nos encargaremos en otra entrada para este blog.

El problema del procesamiento de imágenes tuvo un gran auge a fines de los 80′ y hoy es algo que está incorporado a la vida diaria. Uno saca una foto y después procesa la imagen y la modifica. La contrasta, le pone o quita brillo, le quita los ruidos, le cambia el fondo, el color, etc.

Nuestro enfoque tiene sus comienzos a fines de los años 40′ con la teoría de Nyquist-Shannon para el procesamiento de imágenes orientado a la compresión. Luego, Gabor en los años 60′ demostró como la anterior formulación tenia su relación con las ecuaciones en derivadas parciales, mas precisamente, con la ecuación del calor.

Un sensor de captura de imágen es el elemento de una cámara fotográfica digital que capta la luz que compone la fotografía.

Estos chips semiconductores tienen una matriz rectangular de dispositivos (llamados photosites) donde cada uno es sensible a tres colores, rojo, verde y azul (conocidos como colores RGB debido a red, green, blue). La sensibilidad es lograda por solo uno de los colores RGB por filtración. Estos sitios se organizan en la matriz RGB de Bayes.

Observemos que dicha matriz, contiene mas lugares verdes (un 50% del total). Esto se debe a que el ojo humano cuenta con mayor sensibilidad al color verde.

Antes del procesamiento de la imagen la matriz de Bayes se interpola depende el tipo de imagen que queramos (por ejemplo si en nuestro menú de la cámara ponemos imagen natural, o blanco y negro, colores vivos, etc.) y luego se guarda la imagen.

Lo mas común es el balance de grises, mejora del contraste, quitar el ruido y comprimir los datos como mencionamos anteriormente. Por simplicidad nosotros solo comentaremos lo que sucede cuando se trabaja con un solo canal en lugar de tres, es decir, trabajaremos con imágenes en blanco y negro. Y nuestro interés cae precisamente sobre el problema del desenfoque y eliminación de ruido en las imágenes y la compresión, donde el principal problema es que los bordes de las partes que forman la imágenes no sean destruidos por las modificaciones que hagamos.

La figura del bebé nos ilustra como se altera la imagen utilizando la teoría de muestreo (tomando submuestreos) para comprimir la imagen. Se piensa a la imagen como un conjunto de muestras y se toma un submuestreo del mismo donde existe una relacion entre las submuetras que se toman con respecto a la muestra original. Pero se puede observar que  cuanto mas se incrementa esa distancia entre las submuestras que se toman del muestreo original la imagen se va desconfigurando y, lo mas importante, los bordes se ven muy afectados! Como observamos en la imagen anterior,  por ejemplo la ultima imagen corresponde a tomar 1 punto de cada 35.

Shannon se dió cuenta que antes de tomar el submuestreo de la muestra habia que aplicarle a la imagen lo que se conoce en matemáticas como suavizante gaussiano o smoothing. Para los que estan más familiarizados con las operaciones de funciones en el análisis matemático, Shannon comprendió que convulocionar la imagen original con una función gaussiana y luego tomar el submuestro llebava a un resultado mucho mejor como vemos en la siguiente figura.

La primer parte de la figura corresponde a la imagen original, la segunda al aplicarle el suavizante a la imagen original. La tercera imagen corresponde al tomar un submuestreo de la original y la última a tomarlo en la imagen ya suavizada. Como observamos Shannon estaba en lo correcto. Si suponemos que se aplica un suavizante gaussiano a la imagen original antes del submuestreo los resultados para la compresion de la imagen son mucho mejores.

Esta hipótesis de suavidad es necesaria para la formulación del problema en ecuaciones en derivadas parciales. Mas aún, es la clave de esta formulación dada por Gabor en los 60′. Lo que Gabor demostró fué que la diferencia entre la imagen ya suavizada y la original es rápidamente proporcional al Laplaciano de la imagen original.  Es decir,  si denotamos por  u_0 a la imagen original y k al suavizante gaussiano (como función radial)

Entonces el proceso de suavización se traduce en resolver

Del mismo modo, Gabor dedujo, que en cierta medida se puede “enfocar” la imagen tratando al problema  como un problema inverso en el tiempo resolviendo,

La figura muestra la imagen original y la imagen obtenida luego de hacer la convolución de la imagen  con el suavizante gaussiano.

Numéricamente el problema inverso puede tratarse como

Esta operación puede repetirse varias veces para h‘s  pequeños pero el algoritmo explota rápidamente.

La última imagen muestra el algoritmo de Gabor aplicado a la imagen original para enfocarla. La primera es la original, la segunda luego de cuatro pasos del algoritmo y vemos como queda la imagen (destrozada) luego de 10 pasos del algoritmo. En cambio esto no sucede si aplicamos el suavizante gaussiano k antes de aplicar el algoritmo.

La figura nos muestra el algoritmo de Gabor para 4 y 10 pasos para el enfoque de la imagen cuando la imagen fue suavizada previamente.

Otra cuestión importante es la eliminación del ruido en las imágenes. Para darnos una idea de lo que es el ruido de una imagen observemos la siguiente imagen, la cual se expone con un 75% de ruido y luego la imagen reconstruida al suavizarla.

Las imágenes, digitales en casi todos los casos, tienen ruido. Vamos a considerar acá que el ruido es aditivo y Gaussiano. Cuando se mira el estado de frecuencia de una imagen (si investigan casi todas las cámaras digitales de hoy tienen una función que muestra el ruido de la imagen), el ruido corresponde a altas frecuencias. Para eliminarlo se han usado varias técnicas, pero el inconveniente es que los bordes corresponden a altas frecuencias y es por ello que por lo tanto los bordes también son afectados.

Una idea original fué la introducción de la ecuación del calor para el tratamiento de imágenes. Veamos como el ruido y el calor se asocian en una sola cuestión.

Supongamos que tenemos una habitación con una fuente de calor en el centro. Al pasar el tiempo el calor se propaga por la habitación en círculos concéntricos. Estos círculos van perdiendo magnitud a medida que se propaga el calor. Es decir, el calor avanza alejándose de la fuente y va perdiéndose. Esto se debe a que la temperatura de la habitación tiende a homogeneizarse.

Ahora supongamos que esta fuente de calor existe en un instante puntual y luego de ese instante deja de emitir calor.  A medida que la temperatura aumenta hacia afuera, va disminuyendo en el centro. Es decir, el calor tiende a uniformarse, pero esta ves a una temperatura intermedia entre la temperatura original de la habitación y la de la fuente.

Finalmente, pensemos la habitación como una imagen y que esta fuente puntual e instantánea es un punto originado por un ruido aditivo. Para simplificarlo asumimos también que hay un único punto de ruido.  Si aplicamos el mismo concepto de calor al ruido, podemos imaginarnos como este ruido va propagándose y disminuyendo su intensidad . Desde otro punto de vista, si hacemos un corte transversal de la imagen podemos ver el ruido como una Gaussiana. Es decir, si seguimos con la idea de tratar al ruido como un punto de emisión de calor, la evolución a través del tiempo puede verse como la siguiente gráfica de una función

Cuando el tiempo crece la imagen se vuelve poco interesante porque se van uniformizando todas las particularidades. Ese enfoque equivale a hacer la convolución de la imagen con gaussianas de media cero y varianza variable definida en función del tiempo.

Pero, este razonamiento tiene un inconveniente. El ruido se reparte uniformemente en la imagen y los bordes corresponden a la categoría de ruidos. Entonces nos topamos con las mismas dificultades del tratamiento clásico con la teoría de Shannon. Pero todo esto lo podemos extender para aprovechar las propiedades de la ecuación del calor.  La idea es manipular los coeficientes que conducen el calor.

Sabemos que el calor no se propaga de la misma manera en distintos medios. Hay materiales que conducen mejor el calor que otros. Volviendo al ejemplo de la habitación, supongamos que dividimos dicha habitación con un panel y que en cada lado hay una fuente que conduce calor y suponemos también que el material NO conduce calor. El calor no se propaga del otro lado de la habitación y cada parte tiende a encontrar un balance térmico independiente del de la otra parte de la habitación. Esto es porque el coeficiente de conducción de calor del panel es cero.

Como uno puede ver, una imagen esta formada por regiones delimitadas por bordes y queremos encontrar un método que difumine el ruido dentro de las regiones sin afectar a los borde. Entonces ya tenemos la solución! Si consideramos que el coeficiente de conducción de calor varia entre 0 y 1; asignándole a las regiones delimitadas por los bordes un 1 y a los bordes un 0 tendríamos el problema solucionado.

Este problema es de gran importancia en el ámbito de las ecuaciones diferenciales parciales, conocido como “difusión” o “difusión anisotrópica”, y  comenzó a estudiarse por Pietro Perona y Jintendra Malik en el artículo “Scale-Space and Edge Detection using Anisotropic Diffusion” publicado en 1990.

Ellos proponen la siguiente ecuacion de difusion anisotrópica

donde div indica el operador divergencia,

los operadores gradiente y laplaciano respectivamente en las variables espaciales;  g  es una función positiva, continua, que en el infinito tiende a cero y en cero tiende a 1.

La función g es escogida tipicamente como las funciones de Lorentz o Leclerc y debido a que

juega el rol de detector de bordes pero este tiende a infinito rapidamente, sumado a las propiedades que debe cumplir esta funcion se expresan como

Para finalizar nuestro estudio quiero destacar que existe una gran diferencia en el tratamiento de imagenes digitales e imagenes artificiales. La principal diferencia se debe a que las imágenes artificiales se realizan con bordes suaves, con lo cual no hay discontinuidades en la derivada, lo cual complica el tratamiento. Esta complicación si pasa con la imagenes digitales naturales. Nuestro estudio combate con esta y la supera.

Para ilustrar esto observemos la diferencia en estas dos imagenes, una artificial y la segunda, correspondiente al cerro Torre en la Patagonia, Argentina, una imagen natural.

____________

Leonardo Colombo es investigador predoctoral del Instituto de Ciencias Matemáticas.

Etiquetas:
Categorias: General

Nudos y enlaces en mecánica de fluidos

Las ecuaciones que gobiernan la dinámica de los fluidos incompresibles con viscosidad despreciable fueron propuestas por el gran matemático suizo Leonhard Euler en su memoria “Principes généraux du mouvement des fluides” (1757). Doscientos cincuenta años después, las ecuaciones de Euler siguen presentando importantes retos matemáticos y cuentan con numerosas aplicaciones en Física e Ingeniería.

L. Euler

Un enfoque al estudio de estas ecuaciones que ha resultado particularmente fructífero fue propuesto por el también célebre matemático Joseph Louis de Lagrange, cuyo supervisor de tesis doctoral fue precisamente Euler. Este enfoque consiste en analizar las trayectorias descritas por las partículas del fluido, es decir, “seguir” la evolución temporal de un pequeño volumen de líquido. Estas trayectorias se conocen en mecánica de fluidos como líneas de corriente.

Los primeros estudios rigurosos de la geometría de las líneas de corriente se remontan a mediados de los años sesenta y cuentan con el matemático soviético Vladimir Igorevich Arnold como figura más destacada. El resultado más relevante en esta línea es el teorema de estructura de Arnold, publicado en su trabajo fundacional “Sur la geometrie differentielle des groupes de Lie de dimension infinie et ses applications a l’hydrodynamique des fluides parfaits” (1966), que marca el nacimiento del campo de la Hidrodinámica Topológica.

V.I. Arnold

Uno de los principales problemas en Hidrodinámica Topológica consiste en caracterizar las posibles trayectorias que pueden describir las partículas de un fluido. Más allá de su interés matemático, la relevancia de estas cuestiones se debe a sus conexiones con las teorías de complejidad y turbulencia y con la estabilidad estructural de los fluidos. En este sentido, una conjetura bien conocida en el área que se remonta a los orígenes de la Hidrodinámica Topológica es que las líneas de corriente pueden estar “muy enmarañadas”, esto es, pueden exhibir nudos y enlaces con cualquier topología. Es destacable que, durante décadas, las únicas pistas que sugerían la validez de esta conjetura fueron de naturaleza física, pues provenían de las conexiones con los fenómenos de transporte de vorticidad y relajación magnética.

Esta conjetura ha sido recientemente demostrada por Alberto Enciso y Daniel Peralta Salas, dos jóvenes investigadores Ramón y Cajal del CSIC y del Instituto de Ciencias Matemáticas. El resultado, que aparecerá publicado en la prestigiosa revista “Annals of Mathematics” de la Universidad de Princeton y el Instituto de Estudios Avanzados, ha sido obtenido tras siete años de colaboración entre los dos autores mediante un nuevo enfoque que combina técnicas de diversas áreas de las Matemáticas (Geometría, Topología y Análisis). Esta combinación ha resultado sorprendente para los expertos en el área y se espera que sea un paso importante en la comprensión de la geometría de los fluidos. Las técnicas empleadas se aplican también en magnetohidrodinámica para analizar un tipo de campos magnéticos que surgen en la teoría de las atmósferas estelares, siendo responsables de las fulguraciones solares.

Daniel Peralta Salas y Alberto Enciso

Resulta muy llamativo que la teoría de nudos ha guardado una estrecha relación con la física teórica desde sus inicios. Se puede decir que la teoría matemática comienza en el siglo XIX con Gauss, quien estaba motivado por problemas de Electromagnetismo, y que esta teoría experimentó un gran impulso a raíz del modelo atómico de Lord Kelvin, que consideraba que los átomos eran nudos en el éter. Nuevas y profundas conexiones entre teoría de nudos y Física, más allá del estudio de la geometría de los fluidos, han florecido a partir de la segunda mitad del siglo XX, con espectaculares avances en teoría cuántica de campos, superconductividad, superfluidez, teoría óptica de dislocaciones, etc.

Etiquetas:
Categorias: General

Fallecimiento de Daniel G. Quillen

Matemáticas y sus fronteras recoge la triste noticia del fallecimiento el pasado 30 de abril de un gran matemático, Daniel Gray Quillen, medallista Fields en 1978, y conocido por sus contribuciones a la llamada teoría K algebraica y a la homotopía racional. El fallecimiento fue anunciado ayer por su viuda Jean Quillen.

Una breve biografía

Daniel Quillen nació en Orange, New Jersey, el 22 de junio de 1940. Cursó sus estudios de matemáticas en la Universidad de Harvard, donde defendió su tesis en 1964 bajo la dirección de Raoult Bott. Su tesis se tituló Formal Properties of Over-Determined Systems of Linear Partial Differential Equations, en la que trataba aspectos formales de la teoría de las ecuaciones diferenciales en derivadas parciales; pronto se decantó hacia la topología algebraica.

Tras su doctorado, consiguió un puesto en el MIT (Massachusetts Institute of Technology), aunque pasó varios años en muchas otras universidades. En particular fue miembro del Institute for Advanced Study de Princeton.

Quillen se retiró a finales de 2006, y sus últimos años fueron testigos de una dura lucha con el Alzheimer.

Su trabajo de investigación

En la citación a la entrega de la medalla Fields en el International Congress of Mathematicians de Helsinki, en 1978, se mencionan sus aportaciones a la Teoría K, formuladas en términos de la teoría de homotopía. De hecho, Quillen desarrolló muchos instrumentos algebraicos y topológicos (por ejemplo, los modelos minimales) que se aplicaron a muchas áreas de las matemáticas. Tanto Alexander Grothendieck (durante sus años en París) como Michael Atiyah (en su época de Princeton) tuvieron una gran influencia en su trabajo.

Uno de sus grandes resultados fue la prueba de la conjetura de Adams (Frank Adams) en teoría de homotopía, usando técnicas de geometría algebraica y de la representación de teoría de grupos. Trabajó también en teoría de cobordismo y fue, con Dennis Sullivan el creador de la llamada homotopía racional.

Hymann Bass resumía sus resultados que le llevaron a la consecución de la medalla Fields con estas palabras:

El talento matemático se suele expresar bien resolviendo un problema, bien construyendo una teoría. En algunos casos excepcionales como en el de Quillen se tiene la satisfacción de ver problemas concretos, difíciles, resueltos con ideas generales de gran fuerza y amplio espectro, y por la unificación de métodos de diversos campos de las matemáticas. Quillen ha tenido un enorme impacto en toda una generación de jóvenes algebristas y topólogos.

Medallistas Fields de 1978

Algunos premios y reconocimientos

En 1975, recibió el Premio Frank Nelson Cole en Algebra, concedido por la American Mathematical Society. Fue después conferenciante plenario en el ICM de 1974 en Vancouver (Canadá), donde habló precisamente de teoría K (su título fue Higher Algebraic K-Theory). En 1978 obtuvo la medalla Fields.

______________________________

Manuel de León (CSIC, Real Academia de Ciencias) es Director del Instituto de Ciencias Matemáticas (ICMAT), Miembro del Comité Ejecutivo de IMU y Miembro del Core Group de PESC (ESF).

Etiquetas:
Categorias: General

ERC Starting Grants en el Instituto de Ciencias Matemáticas (ICMAT)

El Programa Starting Grants del Europea Research Council (ERC) tiee como objetivo ofrecer a los jóvenes científicos con gran potencial la oportunidad de poder desarrollar carreras científicas independientes, haciendo la transición que supone trabajar bajo la supervisión de un investigador más senior a tener un equipo propio.

Los proyectos son sustanciosos, actualmente pueden llegar a 2 millones de euros para 5 años, y las convocatorias son anuales, publicándose habitualmente en julio y resolviéndose en aproximadamente un año. Se pretende desde la Comisión Europea aumentar cada año el número de proyectos (la cuantía ha aumentado también en los últimos años).

Los ERC-SG se han convertido en sinónimo de excelencia, y los ganadores son así investigadores disputados por los mejores centros de investigación europeos.

Es interesante conocer que ha ocurrido en España en el ámbito de las matemáticas. Hasta ahora, sólo tres investigadores han conseguido un Starting Grant en nuestro país en esta disciplina, y los tres son investigadores del Instituto de Ciencias Matemáticas. Digamos además que ellos representan el 25% de todos los que lo han conseguido en el Consejo Superior de Investigaciones Científicas (CSIC).

Los tres investigadores (y sus proyectos) son:

  • Diego Córdoba (“Contour dynamics and singularities inincompressible flows”).
  • Javier Fernández de Bobadilla (“Topological, Geometric and Analytical Study of Singularities”).
  • Javier Parcet (“Noncommutative Calderón-Zygmund theory, operator space geometry and quantum probability”).

Los tres son actualmente investigadores de plantilla en el CSIC, y en sucesivas entradas de este blog irán comentando sus proyectos con más detalle.

Diego Córdoba

Javier Fernández de Bobadilla

Javier Parcet

Uno puede preguntarse las causas de esta concentración de calidad en un instituto de investigación. La razón es que el ICMAT ha apostado desde el principio por los jóvenes, y muy especialmente por el el Programa Ramón y Cajal. A pesar de que el CSIC oferta una única plaza de Ramón y Cajal por año en el campo de las Matemáticas, el ICMAT (y antes de la creación del instituto, el Departamento de Matemáticas) ha sido capaz de atraer a casi el 30% de los seleccionados en Matemáticas desde que el programa Ramón y Cajal se puso en marcha. Siete de esos contratados han conseguido un puesto permanente, y los tres ERC Starting Grants son precisamente tres de ellos.

El ICMAT cuenta además con otros diez contratados Ramón y Cajal, 7 por el CSIC y 3 por la Universidad Autónoma de Madrid. Seguramente de entre ellos saldrán algunos ERC SG más, porque calidad la tienen de sobra, y ojalá todos ellos tengan la oportunidad de conseguir además una plaza permanente.

Quisiera terminar con una reflexión sobre el Programa Ramón y Cajal. Lo que está pasando en el ICMAT es una prueba de que el Programa ha servido para seleccionar excelentes investigadores nacionales y extranjeros, y un argumento muy sólido a favor de la continuidad del mismo. Pero también invita a que se pongan todos los medios, tanto desde el MICINN como de las CCAA, OPIS y Universidades para que estos jóvenes investigadores puedan continuar su carrera científica consiguiendo una estabilidad, bien como funcionarios, bien como contratados. España no puede permitirse perderlos.

______________________________

Manuel de León (CSIC, Real Academia de Ciencias) es Director del Instituto de Ciencias Matemáticas (ICMAT), Miembro del Comité Ejecutivo de IMU y Miembro del Core Group de PESC (ESF).

Etiquetas:
Categorias: General