El evento “Cultube” ha reunido en La Casa Encendida un elenco de creadores de YouTube con millones de seguidores


La comunicación y divulgación científica y cultural en redes sociales está adquiriendo un carácter cada vez más importante. En estas nueva plataformas destaca la existencia de una amplia comunidad de creadores en Youtube en español, que realizan una importante labor de divulgación con un gran número de seguidores tanto en España como en Latinoamérica, y con un alto impacto en un público especialmente joven.

El evento “Cultube” ha reunido, el pasado domingo 28 de Octubre de 2018, un elenco de estos reconocidos Youtubers en diversas áreas de creación y divulgación audiovisual para impartir charlas compartiendo sus experiencias en esta plataforma. Los temas abarcan, entre otros, la comunicación y divulgación científica en diversas disciplinas, el análisis y crítica de libros, películas, series de televisión y videojuegos, y temas de interés social actual, como la política y el feminismo.

Los organizadores del evento son el Instituto de Física Teórica UAM-CSIC, el canal Youtube de divulgación científica Quantum Fracture, y La Casa Encendida, con la colaboración de la Asociación Española de Comunicación Científica (AECC).

- El vídeo completo del evento está disponible aquí (comienza en el minuto 46:50)

- Album de fotos en Flickr  aquí

Etiquetas:
Categorias: Sin categoría

La sub-estructura del halo y la búsqueda de la materia oscura


Por Javier Coronado Blázquez (Investigador Predoctoral en el IFT UAM-CSIC) y Miguel Ángel Sánchez Conde (Investigador del Programa Atracción de Talento)

Durante los últimos 40 años se han diseñado diferentes estrategias de búsqueda de materia oscura, aunque todas han resultado infructuosas de momento. Sin embargo, en todo este tiempo el conocimiento sobre sus propiedades a gran escala y cómo afecta a la formación y evolución de galaxias ha evolucionado enormemente. El problema surge cuando intentamos comprender la escala más pequeña, una región donde las simulaciones no tienen la suficiente resolución y las observaciones resultan demasiado confusas debido a nuestra propia galaxia. Una de las claves para avanzar en este campo reside en la caracterización de la sub-estructura del halo de materia oscura.

Predicciones del paradigma LCDM y las estrategias de búsqueda

El modelo cosmológico más preciso y exitoso es el llamado LCDM (Lambda Cold Dark Matter), que incluye una constante cosmológica para dar cuenta de la expansión acelerada del Universo y una forma de materia que no interactúa eléctricamente (oscura) y es fría (no relativista). En esta teoría, las estructuras se forman en un escenario “bottom-up”, es decir, colapsando las más pequeñas primero y creciendo por la acrección y fusión de estructuras menores. Una alternativa es la llamada “Hot Dark Matter” (actualmente descartada) que predice lo contrario, una formación de estructura en la que las más grandes se forman primero y luego se fragmentan en objetos menores. La llamada “Warm Dark Matter” intenta reconciliar ambos escenarios, aunque actualmente también está en entredicho.

El modelo LCDM predice dos cosas. En primer lugar, la existencia de un halo de materia oscura alrededor de nuestra galaxia, que ha colapsado antes que la materia ordinaria y actúa de pozo gravitacional para la misma. Este halo se extiende mucho más allá de los límites luminosos de nuestra galaxia, y es el responsable de las anómalas curvas de rotación de las estrellas que se observan en todas las galaxias espirales.

En segundo lugar, predice la existencia de subhalos, es decir, agregaciones de materia oscura más pequeñas que el halo. Dicho de otro modo, el halo no es perfectamente homogéneo, sino que tiene una distribución discreta, como burbujas en un fluido, de distinto tamaño y propiedades. Un ejemplo de subhalo son las galaxias esferoidales enanas que rodean la Vía Láctea, como Draco o Fornax, conocidas como galaxias satélite. Cuando uno de estos subhalos es muy poco masivo, por debajo aproximadamente de 10 millones de masas solares, no posee el suficiente campo gravitatorio como para retener materia ordinaria, es decir, no consigue retener gas y por tanto estrellas, y esperamos que sean completamente oscuros.

Existen principalmente tres métodos para la búsqueda de materia oscura: producción, detección directa y detección indirecta. El método de producción se hace en aceleradores de partículas, como el LHC, donde se espera que colisionar partículas conocidas a altas energías pueda producir partículas de materia oscura. En la detección directa se busca un pequeño retroceso en núcleos atómicos al colisionar con una partícula de materia oscura incidente.

Una variante de este último método es la llamada modulación anual, producida por el distinto flujo esperado de partículas en distintos momentos de la órbita de la Tierra alrededor del Sol: durante media órbita vamos solidariamente al flujo de partículas de materia oscura (“nadamos con el río”), y en la otra mitad en el sentido opuesto (“nadamos a contracorriente”). Esto ha sido detectado por el experimento DAMA/LIBRA en una señal que lleva durando años, pero las propiedades que predicen para la partícula de materia oscura están en contradicción con otros experimentos, ya que se espera una naturaleza universal de la misma. Actualmente el experimento ANAIS, sito en Canfranc, espera poder reproducir las condiciones exactas DAMA/LIBRA para discernir si es una señal real.

Finalmente, el método de detección indirecta se basa en la detección de partículas como subproducto de aniquilación de partículas de materia oscura, en el llamado modelo WIMP (de sus siglas en inglés, Weakly Interacting Massive Particle). Alguno de los subproductos son antipartículas, neutrinos y rayos gamma, siendo estos últimos considerados los mejores, por ser más fáciles de detectar que los neutrinos y no ser desviados por los campos magnéticos como las antipartículas.

Es uno de los métodos más prometedores, porque al fin y al cabo la evidencia de la materia oscura es puramente astrofísica. Muchos telescopios de rayos gamma actualmente están buscando indicios de estas partículas, como el telescopio espacial Fermi-LAT, que trabaja en el régimen de altas energías o los llamados IACTs (de sus siglas en inglés Imaging Air Cherenkov Telescopes) terrestres como MAGIC, HESS o VERITAS, en el régimen de muy altas energías.

Figura 1: Estrategias de búsqueda de materia oscura interactuando con partículas del modelo estándar . Según el sentido en el que se lea el diagrama se tiene un método de búsqueda u otro.

Aunque muchos de los subhalos poco masivos no tengan la suficiente masa como para retener estrellas y brillar, en el modelo WIMP se puede producir la aniquilación de estas partículas en partículas del modelo estándar, como quarks o bosones. Como subproducto de este proceso, al final se producen fotones que, debido a su gran energía, son rayos gamma, la radiación más violenta del Universo, que sólo se puede producir en los llamados procesos no térmicos, es decir, por interacciones fundamentales entre partículas.

Desde hace años se busca la señal de uno de estos subhalos oscuros, que se verían como una fuente de rayos gamma puntual y estable, puede que con cierta extensión angular. La física de partículas subyacente predice cómo sería el espectro según la partícula a la que se aniquilaran en estos WIMPs, y se puede intentar ajustar estos espectros teóricos a los datos recogidos por los telescopios mencionados. Lamentablemente, de momento la búsqueda no ha resultado exitosa, pero se siguen poniendo límites cada vez más fuertes a este modelo, y con el volumen creciente de datos de telescopios como Fermi-LAT y la llegada de CTA (Cherenkov Telescope Array) se espera poder probar todo el espectro de masas WIMP (aproximadamente 1 GeV-10 TeV).

La sub-estructura de los halos y los problemas de LCDM

Uno de los puntos más controvertidos actualmente sobre las características de estos subhalos es la llamada “relación masa-concentración”. La concentración de un subhalo da cuenta, en primera aproximación, de cómo de denso es, cómo de “concentrado” está. Con las simulaciones cosmológicas, de las que hablaremos en breve, que resuelven los subhalos más masivos, podemos ver cómo esta relación es una ley de potencias, es decir, una recta. Tradicionalmente se ha extrapolado esta recta a las masas más bajas, pero recientemente muchos trabajos apuntan a que esta relación se “aplana” a bajas masas, como se ve en la siguiente figura.

Figura 2: relación masa-concentración. Nótese cómo la recta en el rango alto de masa se curva y se aplana para halos de menor masa (Fuente: Pilipenko et al. 2017 [https://arxiv.org/abs/1703.06012])

Con respecto a la figura previa, se debe mencionar que se refiere únicamente a halos, no a subhalos (halos dentro de otros halos mayores). En este segundo caso resulta esencial tener en cuenta la dependencia radial, es decir, la distancia del subhalo al centro del halo principal, que cambia drásticamente los resultados.

Esto resulta vital en búsquedas de aniquilación de materia oscura, ya que la sub-estructura imprime una amplificación a la señal esperada, puesto que la aniquilación es proporcional al cuadrado de la densidad, por lo que distribuciones “grumosas” o más densas de materia oscura darán un aumento del flujo. Este factor de amplificación, o “boost”, debe ser incluido en los cálculos del flujo de aniquilación esperada, y depende del modelo de subestructura que se asuma.

Otro punto polémico es la supervivencia de estos subhalos de baja masa. Debido a fuerzas de marea provocadas por el campo gravitatorio de la galaxia, los subhalos pueden perder sus capas más externas, dejando sólo el núcleo más denso (o concentrado) interior. Sin embargo, hay autores que defienden que estos subhalos, sobre todo los más cercanos al centro galáctico, son destruidos por estas fuerzas de marea y no sobreviven. Actualmente no hay consenso en este punto y serán necesarios años de investigación que aclaren qué postura es la correcta.

Muchas de las incertidumbres de la sub-estructura del halo viene del perfil de densidad (cómo está distribuida la materia oscura en la galaxia) que se asuma. Desde que se propuso en 1996, el perfil NFW (Navarro-Frenk-White) ha sido uno de los más usados por su simplicidad, aunque existen otras alternativas como los perfiles Burkert o Einasto (ver figura 3). Según el perfil, la distribución de los subhalos variará, así como la posible supervivencia de los mismos, en función del perfil empleado. Por ejemplo, el perfil NFW predice un “cusp”, es decir, una zona de muy alta densidad en el centro de la galaxia, mientras que otros perfiles predicen un “core”, un núcleo más suave con respecto a las zonas más externas, y ahora mismo no está completamente claro cuál es el correcto, ya que las observaciones no son lo suficientemente precisas y las simulaciones hidrodinámicas, que comienzan a tener en cuenta los efectos bariónicos (procesos de “feedback” en los que se devuelve material al medio, por ejemplo en supernovas, acreción de material, etc), ofrecen resultados contradictorios entre distintos grupos de investigación. Esto es debido a que son mucho más complejas de realizar, ya que se debe trazar la evolución de ambas componentes de materia y sus interacciones.

Figura 3: Comparación de los diferentes perfiles de densidad de materia oscura. En el eje x se muestra la distancia al centro galáctico, y en el eje y la densidad de materia oscura. (Fuente: Gaskins 2016 [arxiv.org/abs/arXiv:1604.00014])

Simulaciones cosmológicas para reproducir el Universo

Una herramienta esencial para comprender la física de la materia oscura son las simulaciones cosmológicas de N-cuerpos. En estas simulaciones por ordenador, dadas unas condiciones iniciales, se ponen millones de partículas y se dejan evolucionar atendiendo a toda la física que conocemos. Al evolucionar 13.7 miles de millones de años (la edad del Universo), el resultado de la simulación debería ser casi idéntica a nuestra galaxia (o nuestro Universo, dependiendo de la escala de la simulación). En https://auriga.h-its.org/movies.html pueden verse vídeos de una de las últimas simulaciones cosmológicas. Cambiando las condiciones iniciales o las propiedades de la materia oscura el resultado puede ser muy diferente.

Hay que tener en cuenta que la resolución de las simulaciones de escala galáctica es muy limitada, y a pesar de ejecutarse durante meses en superordenadores, incluso en la simulación más potente en la actualidad cada partícula de la simulación representa unas 1000 masas solares, de forma que sólo se pueden identificar halos o subhalos con una masa superior al millón de masas solares. Por tanto, predecir lo que pasa a escalas mucho más pequeñas resulta muy difícil.

El avance de la cosmología observacional también impulsa a este campo, ya que se están produciendo las primeras simulaciones con los últimos parámetros cosmológicos obtenidos por la sonda Planck en 2014. Uno de los problemas ya resueltos fue el de los “satélites perdidos”, ya que LCDM predecía la existencia de muchas galaxias enanas que no se observaban. Sin embargo, con nuevos telescopios como el DES (Dark Energy Survey) se han descubierto decenas de ellas en apenas unos años: simplemente son galaxias muy débiles y por tanto difíciles de detectar.

Aún con ello, sigue existiendo el problema de la “temperatura” de la materia oscura (que tiene que ver con su velocidad), es decir, si es caliente, templada o fría. Las observaciones actuales prefieren la materia oscura fría (CDM), aunque la opción templada (WDM) sigue aún en debate. El efecto es una menor sub-estructura, cuyos exponentes más masivos son las galaxias satélites y por tanto se esperarían menor número de satélites, como puede verse en la siguiente figura.

Figura 4: Comparación entre una simulación con CDM (izquierda) y WDM (derecha). Nótese la mayor sub-estructura en el caso de CDM (Fuente: Lovell et al. 2011 [arxiv.org/pdf/1104.2929.pdf])

Los tests ¿definitivos? de LCDM

En estos últimos años se han propuesto nuevos tests para confirmar o poner en jaque el modelo cosmológico estándar. Dos de ellos relacionados con la sub-estructura son el lensing y las corrientes estelares.

El lensing es un fenómeno predicho por Einstein en su Relatividad General, en el cual la luz se desvía por la presencia de un campo gravitatorio muy intenso cercano. En particular, en el caso de la materia oscura actúa como lente gravitacional, distorsionando y ampliando las imágenes como si miráramos a una lupa lejana. Midiendo cuidadosamente estas distorsiones, se puede medir la distribución de masa que lo está produciendo. Dado que LCDM predice una gran cantidad de subhalos que producirían este fenómeno, en forma de subestructura en el brillo superficial de los anillos de Einstein que se observan, a lo largo de los próximos años se podrá comprobar si las predicciones de este modelo cosmológico y observaciones están de acuerdo.

Figura 5: ejemplo de lensing de una galaxia lejana debido a la materia oscura entre ésta y nosotros. Nótese el “anillo” de distorsión de la imagen (Fuente: https://upload.wikimedia.org/wikipedia/commons/1/11/A_Horseshoe_Einstein_Ring_from_Hubble.JPG)

Los stellar gaps son zonas de baja densidad de estrellas en las llamadas corrientes estelares (stellar streams), producidas tras la ruptura de la galaxia satélite debido a fuerzas de marea tan intensas en la Galaxia, dejando un rastro de las estrellas del satélite, como si estuvieran pintadas de un brochazo. Esto sólo ocurre de forma tan drástica en aquellos casos en los que la órbita del satélite es muy radial. Al atravesar otros subhalos menores esta corriente, se deberían producir agujeros o zonas de menor densidad estelar. Con el nuevo survey del satélite Gaia, que recientemente ha liberado su segundo set de datos, se podrá elaborar un nuevo test para LCDM.

En resumen, las implicaciones de la subestructura resultan esenciales en la búsqueda de materia oscura, y al estar en la era de la cosmología de precisión, puede proponer tests para poner a prueba, puede que definitivamente, todo lo que creemos saber sobre el Universo.

Etiquetas:
Categorias: Sin categoría

Postdocs at the IFT within the “La Caixa Junior Leader” program


The Institute of Theoretical Physics IFT UAM-CSIC participates in the “La Caixa Junior Leader” program, which finances 22 3-year postdocs with additional money for research specifically for Centers of Excellence, for candidates satisfying the mobility rule, and 10 postdocs for those not.

Application deadline is September 26th. Applications must be submitted through the La Caixa webpage: here 

La Caixa Foundation and IFT are equal opportunity institutions. Applications to this program by female scientist are particularly encouraged.

Etiquetas:
Categorias: Sin categoría

¿De dónde salen las Leyes de la Física?


La estructura esencial de las leyes que rigen las fuerzas entre partículas está determinada por los principios de la Relatividad y la Mecánica Cuántica. Y quien corta el bacalao es el spin! Javier Martín, investigador predoctoral del Instituto de Física Teórica IFT UAM-CSIC, nos lo explica en nuestro Canal de YouTube!!

Ver vídeo aquí

Etiquetas:
Categorias: Sin categoría

¿Qué le pedirías al nuevo Ministerio de Ciencia, Innovación y Universidades?


Dado que estrenamos Ministerio de Ciencia, Innovación y Universidades; y Ministro Pedro Duque, en nuestro concurso semanal de Twitter hemos lanzado como reto retuitear este mensaje explicando qué medida le pedirías al nuevo Ministerio, en materia de política científica

El mejor tuit ganará la taza del IFT!

Anunciaremos el ganador/a el 14 de junio a las 15h!

Etiquetas:
Categorias: Sin categoría

Oferta de puesto Técnico de Proyectos Internacionales


El plazo de presentación de solicitudes es hasta el 20 de Junio de 2018.

FUNCIONES:

Apoyo a la gestión administrativa y financiera del proyecto de la UE “Elusives” (674896 —Elusives — H2020-MSCA-ITN-2015, 1.4.2016 – 31.3.2020) coordinado por la UAM.

Entre otras:

  • Participación en la organización y gestión de las reuniones del consorcio del Proyecto
  • Asistencia a los ESRs (investigadores contratados) en el marco del proyecto.
  • Asistencia como parte del equipo coordinador del proyecto a la red de miembros ELUSIVES
  • Seguimiento y cumplimiento de la normativa comunitaria en el marco del proyecto
  • Redacción de informes del proyecto
  • Seguimiento y control de los deliverables del proyecto
  • Gestión financiera del proyecto ( gestión de pagos y control del presupuesto)
  • Participación en la organización de los eventos (escuelas / congresos)
  • Gestión de la página web del proyecto
  • Otras actividades de comunicación y outreach

http://www.elusives.eu/home

REQUISITOS:

  • Titulación universitaria (Grado/Máster o equivalente preferiblemente en Económicas o Ciencias o Ingeniería).
  • Dominio del idioma inglés hablado y escrito
  • Preferiblemente experiencia acreditada de al menos 2 años en gestión administrativa y financiera de proyectos internacionales financiados por la Comisión Europea.
  • Manejo de aplicaciones ofimáticas (MS Office), en particular Excel y HTML.

MÉRITOS:

  • Posgrado en gestión de proyectos europeos
  • Experiencia en el mundo académico.
  • Conocimientos de otras lenguas comunitarias.
  • Conocimiento de diseño de páginas web
  • Resolución de expedientes económicos y auditorías
  • Gestión de proyectos científicos y consorcios de la UE

CARACTERÍSTICAS DEL CONTRATO:

  • Contrato laboral de  1 año ( renovable hasta fin de proyecto)
  • Salario bruto anual a convenir según perfil del candidato
  • Jornada Parcial ( 25 horas semanales)

PRESENTACIÓN DE SOLICITUDES:

Enviar CV y carta de presentación por correo electrónico a la siguiente dirección rebeca.bello@uam.es

Se realizará entrevista personal a los candidatos mejor valorados.

 

Etiquetas:
Categorias: Sin categoría

El Instituto de Física Teórica IFT UAM-CSIC, entre los mejores centros de investigación del mundo, según Nature Index


Los últimos informes del Nature Index, indicador que elabora anualmente la prestigiosa revista Nature, ubican al IFT (Instituto de Física Teórica UAM-CSIC) en los primeros lugares de excelencia investigadora. Su valoración competitiva en este indicador figura a la altura de reconocidos centros internacionales, como el Instituto de Estudios Avanzados de Princeton, o los grupos de Física Teórica del CERN y de la Universidad de Cambridge.

Más información:

ABC

La Vanguardia

Tendencias21

Madri+d

Madrid es noticia

UAM

Etiquetas:
Categorias: Sin categoría

CIENCIA, y yo quiero ser científico!!!


Los investigadores del Instituto de Física Teórica IFT UAM-CSIC, Juan García-Bellido, Claudia García, Javier Quilis, y Angel Uranga, han contribuido con los artículos publicados en el libro de divulgación titulado “CIENCIA, y yo quiero ser científico!!!”.

El libro puede descargarse gratis aquí

Etiquetas:
Categorias: Sin categoría

Hardware y software en la física fundamental. ¿El tamaño importa?


Por  Javier Martín García (Investigador Predoctoral en el IFT UAM-CSIC)

Desde los tiempos de los grandes filósofos griegos, una de las mayores ambiciones intelectuales de la humanidad ha sido la de contestar a las grandes preguntas de la metafísica: ¿Qué somos? ¿De dónde venimos? ¿A dónde vamos?

Sin duda, muchas han sido las respuestas que se han dado a lo largo de la historia a este tipo de cuestiones, pero es justo decir que las únicas que parecen acercarse a la verdad son aquellas que han utilizado el método científico. “Ciencia”, sin embargo, es un concepto muy amplio y podríamos decir que cada una de sus ramas ha dado respuestas diferentes en sucesivos niveles de abstracción: desde la célebre teoría de la evolución de Darwin en el contexto de la biología, hasta el Modelo Estándar de la física de partículas.

Olvidémonos sin embargo de todos los pasos intermedios (biología, química, etc.), para tratar de dar la respuesta más básica posible a estas preguntas: la de la física fundamental. Pero, para ello, debemos empezar por formular las preguntas en los términos adecuados. Vayamos por partes.

Hardware

Cuando miramos a nuestro alrededor, inmediatamente nos damos cuenta de que existe una enorme variedad de objetos y sustancias en la naturaleza, lo que convierte la descripción del mundo en una tarea bastante ardua. Es muy natural sin embargo preguntarse si esta espectacular diversidad es la mejor respuesta posible o podemos encontrar elementos más simples en cuyos términos describir a todos los demás. Una forma más precisa, por tanto, de preguntarnos “¿qué somos?” podría ser “¿de qué estamos hechos?”.

Para un biólogo estamos hechos de órganos, de tejidos, de células… Para un químico, de agua, de calcio… Para un físico, de partículas elementales. El propio concepto de “partícula elemental” ha variado (y sigue haciéndolo) a lo largo de la historia, pero dejemos esto para más adelante y quedémonos de momento con la idea de que la respuesta de la ciencia a esta primera pregunta es de carácter descriptivo, y consiste en identificar los objetos más simples de la naturaleza. Una vez que hemos hecho esto, ya tenemos nuestro hardware. ¿Qué podemos hacer ahora con ellos?

Software

¿De dónde venimos y a dónde vamos? O, mejor dicho, ¿cuál es la dinámica del universo? Se trata de nuevo de una pregunta muy natural puesto que, como decíamos antes, identificar el hardware sólo describe la realidad presente pero no nos dice nada de su historia pasada o futura. Necesitamos que la ciencia sea predictiva. ¿Qué mantiene a las partículas elementales unidas? ¿Cómo se mueven con el tiempo? En definitiva: ¿cuál es el software de la naturaleza?

La respuesta a esta pregunta también ha cambiado a lo largo de la historia, perfeccionándose y precisándose, pero en cualquiera de sus épocas ha conformado ese concepto abstracto que conocemos como “leyes de la física”. Unas leyes que, convenientemente expresadas en el lenguaje de las matemáticas, aspiran a predecir el futuro de un sistema físico dadas sus condiciones iniciales.

¿El tamaño importa?

Como hemos dicho, la respuesta a estos interrogantes ha variado enormemente a lo largo de la historia de la ciencia, pero ¿significa esto que ahora las contestamos mejor? En parte sí, pero en la mayoría de los casos esto no implica que la respuesta anterior fuese incorrecta, sino simplemente que con el paso del tiempo hemos sido capaces de observar la naturaleza más de cerca, permitiéndonos descubrir detalles que antes no conocíamos y para los cuales han tenido que desarrollarse nuevas descripciones.

El caso del hardware es el más sencillo de comprender. Desde el atomismo filosófico de Demócrito a las partículas del Modelo Estándar (quarks, leptones, etc.), numerosos objetos de tamaño intermedio han disfrutado de su minuto de gloria bajo el título de “partícula elemental”. Es el caso, por ejemplo de los átomos de la tabla periódica de Mendeleiev en el s. XIX, o del protón, neutrón y electrón a principios del s. XX. Ha sido el avance tecnológico y experimental (microscopios, aceleradores, etc.), el que ha sido capaz de desmenuzar estos objetos cada vez más, descubriendo las nuevas partículas de las que estaban formados. El concepto de “partícula elemental”, por lo tanto, depende del tamaño al que somos capaces de mirar. Y a medida que nuestras “lupas” han sido más potentes, hemos encontrado distintas descripciones del hardware, todas ellas válidas para diferentes propósitos (no hace falta saber lo que es un quark para entender la química, o lo que es un átomo para curar la tuberculosis), pero con propiedades claramente diferentes.

 

 

Algo similar ocurre con el software. Las leyes del universo son diferentes en función de los objetos que queramos estudiar y, en particular, dependen de su tamaño. De este modo, mientras que la mecánica Newtoniana describe correctamente los fenómenos que ocurren en la escala humana, la Relatividad General es la reina de los fenómenos astrofísicos y cosmológicos, y la mecánica cuántica gobierna en el mundo de los diminutos átomos y las partículas elementales. Por eso, si le preguntamos a un físico cuáles son las leyes que rigen el mundo, lo mejor que podremos obtener es una respuesta a la gallega: “¿A qué escala?”.

Incluso dentro de cada uno de los grandes paradigmas que acabamos de citar, la importancia de cada fenómeno depende también del tamaño del sistema. De este modo, incluso dentro de la mecánica clásica parece obvio que la física de una gota de agua (en la que existe una tensión superficial muy fuerte que la mantiene unida) no es la misma que la de una masa de agua del tamaño de una piscina, con la que es imposible formar una super-gota esférica. En la mecánica cuántica existe además una versión sofisticada de esta dependencia del tamaño conocida como renormalización, que se manifiesta en el cambio de algunas cantidades como la masa o carga de las partículas, que en lugar de ser constantes se convierten en parámetros continuos dependientes de la energía a la que las sometemos en los experimentos (o lo que es lo mismo, del tamaño al que hacemos ‘zoom’ para observarlas).

En definitiva: sí, el tamaño importa, y mucho, en lo que se refiere a las leyes de la física, y es gracias a esto que el mundo tiene la riqueza de estructuras que podemos observar. De no ser así, el universo tendría la misma pinta a las escalas cosmológicas que a las atómicas, dando lugar a una física bastante aburrida y sin duda incompatible con la vida.

Por supuesto, como toda regla, ésta también tiene excepciones y en ocasiones es posible encontrar sistemas concretos en la naturaleza en los que el tamaño no importa. Las teorías que describen estos sistemas se denominan Teorías Conformes de Campos (o CFT por sus siglas en inglés) y, pese a su rareza, juegan un papel fundamental en la investigación en física fundamental.

Dos hardwares y un destino

En resumen, dependiendo del tamaño de cada fenómeno, el universo se nos presenta en formas diferentes de hardware y software, siendo el trabajo de los científicos el de aplicar la descripción más útil en cada una de estas escalas. Pero el universo aún esconde muchas más sorpresas para nosotros, y es que a veces una misma ley matemática describe dos o más sistemas físicos totalmente diferentes en tamaño y componentes. Dicho de otro modo, el mismo software se puede emparejar con dos o varios hardwares distintos.

Un ejemplo conocido de este fenómeno aparece cuando estudiamos el denominado ‘modelo de Ising’ que describe un sistema de partículas dispuestas en forma de cuadrícula con espines hacia arriba o hacia abajo y unas ciertas interacciones con sus vecinas más próximas. Se trata de uno de los sistemas más sencillos que se pueden estudiar en mecánica cuántica y es útil para comprender fenómenos como el ferromagnetismo. La sorpresa aparece cuando nos damos cuenta de que las ecuaciones dinámicas de este modelo, a una cierta temperatura crítica, son idénticas a las que describen el comportamiento del agua hirviendo en ciertas condiciones de presión y temperatura denominadas “punto crítico”. Es decir, un sistema cuya descripción microscópica en principio no tenía nada que ver con el modelo de Ising, está gobernado por las mismas leyes. Y ésta no es la única sorpresa. Estas ecuaciones dinámicas que describen dos sistemas de naturaleza diferente corresponden además a una de esas misteriosas teorías a las que no les importa el tamaño: ambos sistemas están descritos por una Teoría Conforme de Campos.

El modelo de Ising (izquierda) y la transición de fase en el punto crítico del agua (derecha) están descritos por la misma Teoría Conforme de Campos.

 

Esta ‘coincidencia’, que en la mecánica estadística se conoce con el nombre de universalidad, es un ejemplo de la existencia en la naturaleza de softwares tan versátiles que son capaces de describir sistemas con hardwares completamente diferentes. De forma general, cuando esto ocurre en física, decimos que hemos encontrado una dualidad entre dos teorías.

Debido a su fascinante y misterioso origen y su enorme utilidad como herramienta de cálculo, las dualidades han jugado, en las últimas décadas, un papel vital en la investigación en física fundamental, permitiéndonos estudiar y comprender en profundidad numerosos sistemas físicos en campos tan diversos como la física de materiales o la teoría de cuerdas.

Gravedad cuántica

Podrían escribirse libros y libros sobre las dualidades en física, pero terminaremos en esta última sección recordando una de las más fascinantes de todas. Como explicamos en un post anterior, una propuesta del  premio Nobel Geradus t’Hooft sugería la equivalencia entre ciertos sistemas con gravedad cuántica y sistemas de partículas sin gravedad en una dimensión menor. Este principio holográfico, inicialmente tan sólo motivado por un mero argumento heurístico, cobró forma años después cuando Juan Maldacena puso sobre la mesa un ejemplo en el que la dualidad se podía observar y calcular de forma explícita, y que constituye de hecho la única definición precisa existente de lo que entendemos por una teoría cuántica de la gravedad. Al igual que le ocurría al modelo de Ising, el software de la gravedad cuántica de Maldacena y su dual resultó no ser un software cualquiera, sino ¡de nuevo una Teoría Conforme de Campos!, dando así el apellido a esta dualidad, conocida como la conjetura AdS/CFT.

Los detalles de ésta y otras dualidades están lejos de ser comprendidos completamente, pero sin duda es un apasionante campo de investigación que ha dado y dará muchos quebraderos de cabeza a los físicos teóricos. ¿Existirán más dualidades que puedan esclarecer los principios de la gravedad cuántica? ¿Las Teorías Conformes serán realmente claves para la resolución de este problema y por tanto será la gravedad cuántica una ley de la naturaleza a la que no le importa el tamaño? Quizá aquella física igual para todas las escalas resulte no ser tan aburrida al fin y al cabo, y esconda aún más sorpresas por descubrir de las que ahora podemos imaginar.

Etiquetas:
Categorias: Sin categoría

Opening for Severo Ochoa PhD positions at the IFT


There is a new opening for PhD positions at the IFT, funded by the Severo Ochoa Excellence Center grant.

Candidates are expected to carry out a PhD in one of the strategic research lines of the IFT, which include particle phenomenology, astroparticle physics, nuclear theory, string theory, gravitation and cosmology, lattice and quantum field theory, and quantum information theory. They should have an excellent academic track record, and are expected to hold an academic degree that grants access to a PhD program at the time of formalisation of the contract.

Interested candidates should apply in the
ONLINE APPLICATION
The deadline for applications is March 2nd 2018 at 15:00

The fellowships will cover a three-year period, with possibility of a fourth year. This includes a competitive salary and full health insurance. Selected candidates will be included in IFT grants, which provide additional funds for scientific visits, attendance to advanced schools and workshops, and other training activities.

IFT is an equal opportunity institution. Applications to this program by female scientists are particularly encouraged.

Should you need any further information or assistance concerning the application, please contact the IFT at severoochoa.ift@uam.es

Etiquetas:
Categorias: Sin categoría