Archivo de febrero, 2016

Conferencia: “Otro año triunfal (para Einstein)”

Álvaro de Rújula, investigador del Instituto de Física Teórica IFT UAM-CSIC, impartirá la conferencia de divulgación “Otro año triunfal (para Einstein)” el día 25 de Febrero de 2016 a las 19h30 en la Fundación Ramón Areces. Entrada libre.

Más información: aquí

Etiquetas:
Categorias: Sin categoría

Érase una vez la partícula

Por Paolo Benincasa (Investigador Postdoctoral en el IFT UAM-CSIC)

Para poder llegar a una formulación de la teoría que no tenga localidad y unitariedad como pilares fundamentales y posiblemente manifieste la mayor cantidad de información posible, es preciso buscar un nuevo conjunto de primeros principios que permitan construirla.

En primer lugar, si pensamos cuidadosamente en los procesos de colisión, la primera observación de carácter general que podemos hacer es que éstos ocurren en un lugar, el espacio-tiempo. En ausencia de gravedad dicho espacio-tiempo es plano y está caracterizado por una simetría, llamada simetría de Poincaré, cuyas implicaciones pueden resumirse diciendo que las leyes físicas son independientes tanto de la velocidad de translación como de la orientación del sistema de referencia en el que se formulan. Esta afirmación tiene una implicación muy importante para los procesos de colisión: determina exactamente el amplitud del proceso de colisión más sencillo, aquel que involucra tres partículas, y aún más, establece cuáles son las interacciones que pueden ocurrir. ¿Qué significa esto? El mensaje es que el simple conocimiento del lugar donde ocurren los fenómenos de colisión nos proporciona tanto información acerca de qué interacciones con tres partículas pueden ocurrir como sus amplitudes.

La segunda observación es que si la forma de cada diagrama de Feynman está implicada por localidad y unitariedad, y cada diagrama de Feynman está caracterizado por la presencia de partículas no virtuales, podemos investigar la posibilidad de que una amplitud de difusión esté representada sólo a través de procesos que no involucren partículas virtuales. Puesto que ya conocemos las amplitudes más sencillas, podemos construir nuevos diagramas cuyas líneas representen sólo partículas físicas y cuyos vértices sean las amplitudes con tres partículas. Estos diagramas son llamados diagramas on-shell y su relación con las amplitudes ha sido establecida por teorías de Yang-Mills tanto supersimétricas como no supersimétricas. Considerando como ejemplo la amplitud con cuatro partículas a nivel de árbol en N = 4 SYM, su representación en términos de diagramas on-shell resulta ser  constituida por un solo diagrama, como se muestra en Fig. 3.

Representación de la amplitud de 4 partículas en N=4 SYM con diagramas on-shell.

 

Es importante remarcar que, a diferencia de los diagramas de Feynman, todas las partículas representadas son físicas, incluyendo las interiores. Las bolitas blancas y negras son las amplitudes de tres partículas, ellas también físicas y fijadas por primeros principios. Junto al hecho de que esta nueva representación proporciona un número menor de diagramas, se suma que estos resultan no ser, en general, locales. Esto no se puede apreciar en la amplitud de cuatro partículas porque es uno de los pocos casos donde es expresada por un sólo diagrama.

Además algo sorprendente ocurre: los diagramas on-shell son en realidad cantidades que recientemente han sido estudiadas en matemáticas, aunque sin ningúna interpretación física, y que son llamadas plabic networks. Más aún, los plabic networks –  nuestros digramas on-shell –  están conectados a un espacio geométrico llamado Grassmanniano.

Este es un buen momento para rebobinar: con la idea de encontrar una nueva representación que tenga explícita el mayor número de propiedades posibles, se ha encontrado una formulación en términos de procesos cuyas partículas son todas físicas pero que individualmente no son locales. Estos procesos tienen una representación geométrica en un espacio que no es nuestro espacio-tiempo. Como consecuencia empieza a desaparecer explícitamente la referencia al espacio-tiempo, y la localidad como también la unitariedad, dejan de estar manifiestas. Hasta ahora, todo puede ser visto como una simple reorganización, por cuanto notable, de las amplitudes perturbativas.

Podemos ahora preguntarnos si es posible definir desde cero un objeto geométrico utilizando primeros principios, que nos proporcione las amplitudes y cuyas propiedades estén relacionadas con localidad y unitariedad. La respuesta parece ser afirmativa y dicho objeto ha sido bautizado amplituedro. Un amplituedro puede ser pensado como la generalización de un polígono convexo a un espacio con más áltas  dimensiones (el Grassmanniano): los vértices del polígono tienen que ser pensados como extensión de la idea de plano a más altas dimensiones (llamados k-planos). Como ejemplo, podemos visualizar la cara tridimensional del amplituedro en 4 dimensiones y con 8 vértices:

Intentando ahora crear un enlace con la física, el número de vértices del amplituedro coincide con el número de partículas exteriores, mientras que la dimensión de los planos en cada vértice depende de los estados de las partículas. Esto significa que a cada número de partículas corresponde un amplituedro. Sin embargo, el amplituedro puede ser pensado como algo con infinitas dimensiones que es proyectado en un espacio finito una vez que se elige el número de partículas, los estados y el nivel perturbativo. ¿Dónde están las amplitudes? Las amplitudes corresponden al volumen del amplituedro, mientras que localidad y unitariedad están relacionadas con su geometría.

Hemos pues llegado a una formulación completamente geométrica de la teoría, que no hace referencia a ningún concepto sobre el que se fundaba la formulación en términos de diagramas de Feynman: el amplituedro es un objeto matemático bien definido por sí mismo, las propiedades  físicas resultan relacionadas a su geometría y las amplitudes a los volúmenes.

¿Feynman vivo o muerto?

Yo diría que está como el gato de Schödinger: en una superposición del estado de vivo y muerto. Lo que lo decida será la pregunta que nos hagamos. Para el cálculo de muchos procesos relevantes para el LHC,  está  semi-vivo: aunque generalmente no resulte conveniente intentar calcular directamente los diagramas de Feynman, esta representación, coadyuvada por otras ideas (como el uso de la propiedad de unitariedad  mencionada anteriormente) permite estudiar varios procesos.

En lo que concierne al amplituedro, además de ser una formulación matemática preciosa e incluso un objeto matemático nuevo, proporciona un mensaje que podría ser importante y que de momento es ciertamente interesante: las propiedades de localidad y unitariedad, sobre las que se funda nuestra manera actual de entender la física de partículas, podrían no ser fundamentales y, por tanto, ser sustituidas por algún otro principio de los que ellas derivan. Esto significa que, si por cualquier razón se necesitara dejar una de esas propiedades (o ambas), podríamos hacerlo: en particular, aunque la física descrita sea tanto local como unitaria, si su formulación no se funda sobre ninguna de estas dos propiedades, es más fácil poder enlazarla con una teoría más general que no sea local o unitaria (o ni local ni unitaria) – se piensa que para obtener una descripción de la gravedad cuántica sea preciso renunciar por lo menos a una de esas dos propiedades y, cualquiera que sea esa descripción, en el límite de gravedad débil, tiene que reducirse a la física local y unitaria que conocemos. Sin embargo, no está claro que la formulación de la física local y unitaria a la que  se llegue en dicho límite tenga que tener estas dos propiedades explicitas, como ocurre en la formulación más estándar, y que el amplituedro, que precisamente no se funda sobre esas dos hipótesis, podría ser el natural punto de llegada.

Etiquetas:
Categorias: Sin categoría

Despidiéndonos de Feynman

Por Paolo Benincasa (Investigador Postdoctoral en el IFT UAM-CSIC)

Hasta principios de los años 90 del siglo pasado, el cálculo directo de los diagramas de Feynman en QCD nos había permitido conocer sólo las amplitudes con 2 gluones iniciales y 2 finales hasta el nivel de 1  bucle. Este dato proporciona una idea de la dificultad que calcular con dicha representación suponía y del limitado conocimiento que nos permitía alcanzar. No es el fin de este post proporcionar una historia de la evolución de las técnicas de cálculo (para quien estuviera interesado, aconsejo la lectura del post (en inglés) escrito por Lance Dixon, uno de los mayores contribuidores al desarrollo de los métodos de cálculo usando unitariedad). Lo que sí quiero mencionar es que la intuición de usar explícitamente la propiedad de unitariedad de toda la amplitud permitió usar los diagramas de Feynman sólo para calcular la amplitud a nivel de árbol, pudiendo las amplitudes a nivel de bucles ser reconstruidas a partir de productos de las anteriores, salvo un término cuya presencia está dictada por la propiedad de localidad.

Anteriormente había escrito que no todo es sólo cuestión de cálculos, sin embargo sigo hablando de cálculos. ¿Qué hemos aprendido hasta ahora? La primera lección es que los diagramas de Feynman, no sólo por aumentar pronto la complejidad del cálculo, sino también por descomponer la amplitud en términos  individualmente no físicos (generalmente, un diagrama de Feynman no representa un proceso físico real) pueden esconder varias propiedades de la teoría, como ha sido descubierto en el caso de una de las teorías que se usan a menudo como modelo de juguete de QCD: la teoría de Yang-Mills con cuatro supersimetrías  – esta teoría es una extensión de la teoría de Yang-Mills, que describe las interacciónes entre gluones y que  es contenida en QCD, incluyendo partículas supersimétricas, y se suele indicar con el acrónimo N = 4 SYM.

Una objeción que el lector podría poner es la siguiente: la primera frase del artículo menciona el LHC (un experimento), luego se sigue hablando de lo que se puede calcular teóricamente que pueda ser comparado con el experimento (las amplitudes de difusión) y ahora de repente llegamos a mencionar, como modelo simplificado de QCD, su pariente lejano con cuatro supersimetrías (N = 4 SYM), cuando además aún no existe señal alguna de la existencia de partículas supersimétricas. ¿No será la sólita historia de los físicos que, para modelar una carrera de caballos, aproximan los caballos con esferas? ¿Acabaremos hablando de un ejercicio meramente académico?

Es sólo una teoría: realidad, modelos de juguete y el abandono de Feynman

“Es sólo una teoría” es una expresión cada vez más recurrente en el lenguaje común, tanto que la percepción de teoría es cada vez menos distinguible de la de fantasía, de algo que se le ocurre a alguien tras estar borracho toda la noche. Por supuesto ni nuestro universo es supersimétrico, ni está claro que lo haya sido nunca en su historia, pero modelos simplificados que parecen claramente no describir los fenómenos que podemos observar, pueden en cambio ser cruciales para entender su naturaleza. Un símil se puede hacer con el fenómeno de la caída de los cuerpos: sólo el modelo simplificado, en ausencia de aire, ha permitido entenderlo, y luego extenderlo al caso de presencia de aire y, por tanto, de fricción.

Volviendo a N = 4 SYM, ante todo es una teoría tan física como QCD: sus gluones, fermiones y escalares se comportan como cualquier otro gluón, fermión o escalar (sin masas). Simplemente se diferencia por tener más simetrías. En general, un sistema es más simple cuanto más simetrías tenga. Añadir simetrías a una teoría es como quitar el aire en el estudio de la caída de un cuerpo: elimina complicaciones inútiles. Como todos los modelos de juguete, N = 4 SYM puede ser extremadamente efectivo en lo que concierne al estudio de las amplitudes, depende siempre de las preguntas a las que queremos que el modelo conteste. Un ejemplo concreto de esta afirmación podemos verlo en la amplitud de gluones a nivel de árbol: considerando sólo la interacción entre gluones, el resultado que podemos extraer de N = 4 SYM es exactamente el mismo que el calculado directamente en QCD.

Ahora bien, la pregunta a la que queremos contestar es si hay algo verdaderamente fundamental detrás de la complejidad que proporciona la representación de Feynman que, recordemos, está estrictamente conectada a la formulación de nuestra infraestructura teórica. En particular, como he mencionado anteriormente, la representación de una amplitud en diagramas  de Feynman hace que las propiedades de ocalidad y unitariedad queden manifiestas. La respuesta podría estar en una reformulación de la teoría en la que ambas propiedades resulten emergentes, es decir que deriven de otra propiedad considerada fundamental.

Etiquetas:
Categorias: Sin categoría

Partículas e interacciones: dibujamos con Feynman

Por Paolo Benincasa (Investigador Postdoctoral en el IFT UAM-CSIC)

Empezamos nuestra visita guiada en el mundo de la física de partículas con el punto de vista que sigue siendo el más común hoy en día y, probablemente, el más general. Como mencioné en el post introductorio anterior, nuestra lupa se focalizará en la amplitud de difusión.

Los procesos que ocurren durante la colisión y que llevan desde las partículas iniciales a las finales pueden ser representados gráficamente a través de los diagramas de Feynman. Por ejemplo, la colisión de dos partículas, que indicaremos con 1 y 2, la cual produce otras dos partículas (3 y 4), puede representarse como se muestra a continuación:

El primer miembro de esta ecuación es simplemente una esquematización de la amplitud que se quiere calcular, donde las lineas exteriores representan las partículas que colisionan (identificadas por los números) mientras que el círculo indica que algo ocurre durante la colisión.

En el segundo miembro de la ecuación los diagramas de Feynman proporcionan una representación de lo que ocurre durante la colisión, o lo que es lo mismo, de cómo las partículas interacúan. Las líneas exteriores de cada diagrama siguen representando las partículas que colisionan, mientras que las interiores representan la propagación de otras partículas. Dichas partículas interiores se denominan virtuales y técnicamente se dice que están off-shell: esto significa que, a valores de energía genéricos, no son físicas (detectables). Sin embargo, existen valores de energía peculiares que les permiten convertirse en partículas físicas, es decir que pueden ser emitidas y detectables (en cuyo caso se dice que esas partículas van on-shell).

Si cada línea corresponde a una partícula, no es difícil entender que los vértices interiores de los diagramas representan la interacción entre las partículas. A cada uno de los elementos de los diagramas (líneas y vértices) está asociada una expresión matemática. En particular, la expresión matemática asociada a cada vértice depende de las partículas involucradas (y por lo tanto de la teoría que se quiere estudiar) y está caracterizada por una constante que mide la interacción entre ellas, llamada constante de acoplo y que en adelante indicaremos con k. Los diagramas de la primera línea de la ecuación anterior, caracterizados por dos vértices de tres partículas, tendrán un factor k², mientras que los diagramas de la segunda linea tendrán un factor k⁴. ¿Qué significa esto? Si k es un numero suficientemente pequeño, los términos con  k² resultarán más grandes respecto a los términos con k⁴. Para dar una idea, imaginad que k = 1/100. Por consecuencia, los diagramas con k² contendrán un factor 1/10000 mientras que aquellos con k⁴ contendrán un factor 1/100000000, o lo que es lo mismo  el segundo conjunto de diagramas puede ser visto como una pequeña corrección del primero.

Los puntos suspensivos indican que hay más términos (en general un número infinito de ellos) que son cada vez más y más pequeños. Esto significa que la representación de la colisión a través de los diagramas de Feynman es válida únicamente cuando las constantes de acoplo características de las interacciones en juego puedan ser consideradas suficientemente pequeñas. Este régimen se llama perturbativo y los diagramas dibujados arriba, en la primera línea de la ecuación, constituyen el nivel de árbol, que representa la aproximación semi-clásica de la amplitud, mientras que los de la segunda línea, incluyendo los codificados en los puntos suspensivos, constituyen el nivel de bucle, que representa las correcciones cuánticas del proceso de colisión.

Es posible escribir todos los diagramas de Feynman que necesitemos, y, en línea de principio, calcular nuestra querida amplitud a todos los ordenes perturbativos. Digo en línea de principio porque, a pesar de que la representación mediante diagramas parezca bonita y sencilla, hacer el cálculo a través de ella ha resultado de todo salvo fácil y, por ello, su simplificación ha sido un objetivo muy importante para los físicos: incluso considerando sólo el nivel de árbol, el número de diagramas que necesitamos sumar aumenta rápidamente aumentando el número de partículas involucradas en la colisión. Si además aumentamos los números de bucles, la cantidad de diagramas que se necesitaría considerar crece vertiginosamente.

En cualquier caso, no todo es sólo cuestión de cálculos. Los diagramas y su suma codifican de manera muy importante las propiedades de la teoría. La estructura de cada diagrama está dictada por dos hipótesis fundamentales que están detrás de la formulación teórica de las interacciones entre partículas: la localidad de las interacciones, es decir que ocurren en un punto, y la unitariedad, es decir que la suma de las probabilidades en los experimentos de colisión es igual a uno. En otras palabras, la descomposición de una amplitud en diagramas de Feynman deja ambas propiedades manifiestas. En los próximos capítulos veremos cómo precisamente esta característica nos impida leer y descubrir muchas otras propiedades físicas directamente de las amplitudes.

Etiquetas:
Categorias: Sin categoría

De las partículas a la geometría: cómo los métodos de cálculo llevan a cambios conceptuales

Por Paolo Benincasa (Investigador Postdoctoral en el IFT UAM-CSIC)

Gracias al acelerador de partículas LHC del CERN en Ginebra, en los últimos años la física de partículas y sus problemas/esperanzas han aparecido relativamente a menudo en los medios de comunicación: desde el fundamental descubrimiento del bosón de Higgs y de partículas exóticas (pentaquarks) hasta la eterna esperanza de que en un futuro próximo se detecten partículas supersimétricas o alguna señal de nueva física, es decir no incluida en el paradigma actual representado por el modelo estándar de física de partículas.

Resulta más difícil, en cambio, comunicar a nivel de divulgación los avances técnicos en las construcciones teóricas sobre las que se funda la física de partículas y que permiten hablar de ella. La razón principal de dicha dificultad está tanto en el carácter mismo de los avances, a menudo nuevas formulaciones matemáticas – se quiera o no, el uso de las matemáticas para describir los fenómenos físicos no es una perversión de los científicos, sino el lenguaje más poderoso y efectivo que tenemos –, como también en el hecho de que no siempre se vuelven en algo experimentalmente relevante a corto plazo.

La física de partículas se puede resumir como el estudio de las colisiones entre partículas que se mueven con una velocidad próxima a la velocidad de la luz. La dinámica de dichas colisiones es muy distinta de lo que nos podríamos esperar basándonos en nuestra experiencia cotidiana. La experiencia del día a día nos dice que si hacemos colisionar dos bolas de billar, dependiendo de la velocidad con la que se lancen y el ángulo de choque, la colisión tendrá el efecto de modificar tanto la dirección de movimiento de las bolas como la velocidad de cada una de ellas. La leyes que gobiernan estos fenómenos son las de la física clásica.

Si en cambio sustituimos las dos bolas de billar con dos partículas elementales y las hacemos colisionar con altas energías (con velocidades próximas a las de la luz), la dinámica seguirá las leyes de la relatividad especial y de la mecánica cuántica: la colisión producirá dos o más partículas, que pueden ser bien del mismo tipo de las iniciales o bien partículas totalmente diferentes. Es más, de manera directa podemos conocer sólo el conjunto de las partículas anteriores a la colisión, con su energía, y el conjunto de las partículas que emergen tras la misma, pero lo que exactamente ocurre durante la colisión queda, en principio, desconocido. Sin embargo, existe una cantidad que podemos medir y que nos proporciona información acerca de la colisión: es la probabilidad de que la colisión de nuestras partículas iniciales produzca un cierto tipo de partículas finales. Dicha probabilidad es el cuadrado de una cierta cantidad llamada amplitud de difusión, que podemos calcular teóricamente y comparar así las predicciones teóricas con los resultados de experimentos como el LHC. Es por tanto de extrema importancia desarrollar métodos eficientes para calcular dichas amplitudes. Durante los últimos 20 años se han producido avances notables en esta dirección, contribuyendo a una comprensión más completa y detallada de la teoría, independientemente de que se trate de QCD o de los denominados modelos de juguete — por claridad QCD es el acrónimo de Quantum ChromoDynamics (en castellano cromodinámica cuántica) que es la teoría, incluida en el modelo estándar de física de partículas, que describe la interacción entre gluones y quark, partículas contenidas en, por ejemplo, protones y neutrones; los modelos de juguete son en cambio modelos simplificados que se usan para investigar propiedades específicas de un sistema.

Con la intención de abrir una pequeña ventana que nos permita asomarnos al mundo de los más recientes avances técnicos en teoría de partículas, empezamos una visita guiada a través de aquellos que están implicando un cambio de perspectiva con la que pensamos los fenómenos físicos.

Etiquetas:
Categorias: Sin categoría

Detectan las ondas gravitacionales 100 años después de la predicción de Einstein

El experimento LIGO abre una nueva ventana al universo con la observación de las ondas gravitacionales procedentes de la colisión de agujeros negros.

El grupo GRG de la Universidad de las Islas Baleares (UIB), liderado por Alicia Sintes, miembro del proyecto Consolider MultiDark, participa en LIGO. El proyecto MultiDark está coordinado por la Universidad Autónoma de Madrid y el Instituto de Física Teórica IFT UAM-CSIC.  

Los investigadores del IFT explican en diferentes medios de comunicación la relevancia de este acontecimiento: 

.

Etiquetas:
Categorias: Sin categoría

Conferencia: “Cosmología: descubriendo el Universo”

Santiago Ávila, investigador del Instituto de Física Teórica IFT UAM-CSIC, impartirá la conferencia “Cosmología: descubriendo el Universo” el día 14 de Febrero de 2016 a las 12h en el Museo Nacional de Ciencia y Tecnología, sede de Alcobendas. Entrada libre.

Más información: aquí

Etiquetas:
Categorias: Sin categoría