157877708-80472794-teoria-cuantica-de-campos

109
Teoría cuántica de Campos. Esther Quintana Tudela

Upload: felipe-narvaez-miranda

Post on 24-Oct-2015

29 views

Category:

Documents


0 download

TRANSCRIPT

Teoría cuántica de Campos.

Esther Quintana Tudela

1. Introducción: 1.1. Campos.

El desarrollo de la teoría cuántica de campos se llevó a cabo simultáneamente con el de

la propia mecánica cuántica. Entre 1926 y 1928 se desarrollaron los primeros intentos

de encontrar una ecuación de onda relativista, debidos al propio Erwin Schrödinger y a

Paul Dirac.

Por otro lado, en 1926 Werner Heisenberg, Pascual Jordan y Max Born calcularon el

espectro de energías de la radiación en ausencia de cargas —el problema del cuerpo

negro—, en el primer ejemplo de teoría cuántica de campos aplicada al campo

electromagnético. Esto condujo a una reformulación de las mencionadas ecuaciones de

onda relativistas, conocida como segunda cuantización, de forma que pasaron a

describir campos en lugar de funciones de onda. Esta reinterpretación fue llevada a cabo

por Heisenberg, Wolfgang Pauli, Vladimir Fock, Wendell Furry, Robert Oppenheimer y

Victor Weisskopf.

A pesar de sus éxitos iniciales, la teoría cuántica de campos tenía problemas teóricos

muy serios. El cálculo de muchas cantidades físicas en apariencia inocuas, como las

pequeñas correcciones a los niveles energéticos del electrón en el átomo de hidrógeno

—la llamada estructura fina—, daba un valor infinito, un resultado sin sentido. Este

«problema de las divergencias» fue resuelto durante las décadas de 1930 y 1940 por

Julian Schwinger, Freeman Dyson, Richard Feynman y Shin'ichiro Tomonaga entre

otros, a través de un proceso conocido como renormalización. Esta etapa culminó con el

desarrollo de la moderna electrodinámica cuántica —QED, por Quantum

Electrodynamics—. La técnica de los diagramas de Feynman, un procedimiento gráfico

de cálculo desarrollado por Richard Feynman, se convirtió en una de las herramientas

básicas de la teoría cuántica de campos.

Comenzando la década de 1950 con el trabajo de Chen Ning Yang y Robert Mills, QED

fue generalizada a una clase más general de teorías conocidas como teorías gauge. A

finales de la década de 1960, Sheldon Glashow, Abdus Salam y Steven Weinberg

unificaron las interacciones electromagnética y débil en la teoría electrodébil —una

teoría gauge— mediante el concepto de ruptura espontánea de simetría, introducido

originariamente para explicar la superconductividad. Sin embargo, la intensidad de las

interacciones fuertes entre hadrones fue un desafío para los teóricos de campos hasta el

desarrollo del concepto de libertad asintótica por Frank Wilczek, David Gross y Hugh

David Politzer en 1973.También durante la década de 1970, la teoría cuántica de

campos «rompió los grilletes de los diagramas de Feynman», al descubrirse que las

soluciones no perturbativas de las ecuaciones de los campos clásicos juegan un papel

crucial a nivel cuántico.

La ecuación de Schrödinger, una de las más importantes de la mecánica cuántica,

describe la evolución de un sistema cuántico en el tiempo. La forma convencional de

esta ecuación es:

donde Ψ(r) ≡ Ψ(r1,...,rn) es la función de onda de n partículas, m su masa, y V su energía

potencial. Sin embargo, en esta forma básica, la ecuación de Schrödinger no es capaz de

describir algunos aspectos de ciertos sistemas físicos:

Creación y destrucción: Durante la evolución de este sistema, el número de partículas

se mantiene finito e invariable —a saber, n—. Sin embargo, en experimentos de altas

energías es corriente que el número de partículas varíe —por ejemplo en la

desintegración de un neutrón, o la aniquilación de un electrón y un positrón en

fotones—, como consecuencia de la famosa relación masa-energía de la relatividad.

Además, en el contexto de física del estado sólido, las excitaciones de un colectivo de

átomos se reinterpretan como cuasipartículas, como el fonón, cuyo número es también

variable. La ecuación de Schrödinger no es apropiada para describir estos sistemas en el

que el número de cuerpos no es fijo.

Invariancia relativista: Esta ecuación no refleja las propiedades de la cinemática

relativista. Su límite clásico describe el movimiento de una partícula bajo las leyes de la

mecánica galileana, en lugar de la mecánica relativista: el primer término de la izquierda

en se corresponde con la energía cinética no relativista p2/2m, en lugar de la expresión

relativista (p2c

2+m

2c

4)1/2

.

Campo clásico: Las interacciones entre las n partículas del sistema tienen lugar

mediante fuerzas a distancia, dadas por el portencial V. Sin embargo, en la física clásica

existen sistemas más generales, que no pueden entenderse mediante este esquema. Es

por ejemplo el caso de un conjunto de cargas eléctricas en movimiento: para describir su

evolución es necesario tener en cuenta de forma independiente a las propias partículas

cargadas, así como también al campo electromagnético que generan.En general, la

ecuación no es válida para sistemas de campos continuos.

Es posible modificar la ecuación de Schrödinger para hacerla invariante relativista,

dando por resultado la ecuación de Klein-Gordon o la ecuación de Dirac. Sin embargo,

estas ecuaciones tienen muchas propiedades insatisfactorias: por ejemplo, predicen la

existencia de partículas con energía negativa, de modo que el sistema resulta ser

inestable. Estos defectos son debidos a que dichas ecuaciones tampoco contemplan la

posibilidad de que las partículas puedan crearse o destruirse y, como se menciona en el

primer epígrafe, es inconsistente suponer una teoría relativista con un número constante

de partículas en interacción.

1.2. Principios variacionales. 1.2.1. Cálculo de variaciones.

El cálculo de variaciones es un problema matemático consistente en buscar máximos y

mínimos (o más generalmente extremos relativos) de funcionales continuos definidos

sobre algún espacio funcional. Constituyen una generalización del cálculo elemental de

máximos y mínimos de funciones reales de una variable.

Uno de los problemas típicos en cálculo diferencial es el de encontrar el valor de x para

el cual la función f(x) alcanza un valor extremo (máximo o mínimo). En el cálculo de

variaciones el problema es encontrar una función f(x) para la cual un funcional I[f]

alcance un valor extremo. El funcional I[f] está compuesto por una integral que depende

de x, de la función f(x) y algunas de sus derivadas.

Donde la función f(x) pertenece a algún espacio de funciones (espacio de Banach,

espacio de Hilbert), y tanto ella como sus derivadas pueden tener restricciones.

Esta fórmula integral puede ser más complicada permitiendo a x ser un vector, y por lo

tanto incluyendo derivadas parciales para f.

1.2.2. Principio de mínima acción.

El principio de mínima o menor acción o principio de Hamilton es un presupuesto

básico de la mecánica clásica y la mecánica relativista para describir la evolución a lo

largo del tiempo del estado de movimiento de una partícula como de un campo físico.

También en mecánica cuántica Feynman y Kac intentaron formulaciones inspiradas en

el principio.

1.2.2.1. La integral de acción para partículas

La formulación del principio para un sistema lagrangiano es: fijado un sistema de

coordenadas generalizadas sobre el espacio de configuración (o una parte del mismo,

llamada carta local), se tiene que de todas las trayectorias posibles que transcurren entre

el instante t1 y t2, el sistema escogerá aquella que minimice la acción S. La magnitud

acción viene dada para cada trayectoria por la integral:

Donde:

son las coordenadas paramétricas de una trayectoria posible.

es la función lagrangiana del sistema.

1.2.2.2. La integral de acción para campos

La formulación anterior es adecuada para partículas puntuales, o incluso sistemas

mecánicos con un número finito de grados de libertad aunque no sean puntuales como

un sólido rígido. Sin embargo para campos físicos que tienen una variación espacial o

para la mecánica de medios continuos la formulación anterior no es adecuada y debe

generalizarse.

La generalización más obvia es definir la acción como la integral de una función

escalar, denominada densidad lagrangiana integrada sobre el volumen donde existe el

campo o medio continuo:

En teoría clásica de campos es frecuente escribir la ecuación anterior de forma

totalmente covariante:

1.2.2.3. Principio de mínima acción en mecánica relativista:

Partículas:

En mecánica relativista la acción de una partícula se obtiene mediante cálculo a lo largo

de la línea de universo de una partícula, concretamente una partícula material de masa m

se mueve a lo largo de una geodésica. La integral de acción a lo largo de una curva L

viene dada en coordenadas curvilíneas por:

,

Si se introduce en las ecuaciones de Euler-Lagrange el integrando de la anterior integral

se obtienen las ecuaciones de las geodésicas:

,

Campos:

Un campo físico es cualquier tipo de magnitud que presenta variación tanto espacial

como temporal. El tratamiento de este tipo de entidades físicas requiere el tratamiento

mediante densidades lagrangianas, ya que no son representables como sistemas con un

número finito de grados de libertad. Además su tratamiento riguroso generalmente

requiere el uso de la mecánica relativista para explicar su propagación. Los campos con

los que usualmente trata la teoría clásica de campos:

Campo electromagnético, que es el campo asociado a la interacción de partículas

cargadas, y que en última instancia explica las propiedades de la materia

convencional, como las propiedades de sólidos, líquidos y gases, fenómenos

como el color, la luz, etc.

Campo gravitatorio, es un tipo de campo relativamente débil, comparado con el

campo electromagnético, pero al ser acumulativo su efecto, es el único relevante

a escala cósmica para explicar la evolución del universo.

La integral de acción para el campo electromagnético viene dado por un escalar

construido a partir del tensor campo electromagnético:

De hecho este lagrangiano puede reescribirse en términos de los campos elétrico y

magnético para dar (en unidades cgs):

Introduciendo este lagrangiano en las ecuaciones de Euler-Lagrange, el resultado son las

ecuaciones de Maxwell no homogéneas.

En relatividad general el campo gravitatorio es visto como una manifestación de la

geometría curva del espacio tiempo, por tanto la formulación lagrangiana del campo

gravitatorio relativistamente tratado debe involucrar a algún escalar relacionado con el

tensor métrico y sus derivadas primeras (equivalentemente los símbolos de Christoffel

) o con el tensor de curvatura. Puede probarse que no es posible hallar ningún

escalar que involucre sólo las componentes del tensor métrico y los símbolos de

Christoffel, ya que mediante cierta transformación de coordenadas se pueden anular

éstos últimos (lo cual es precisamente el contenido del llamado principio de

equivalencia).

Es interesante que la curvatura escalar R, nos da una forma de acción adecuada: aunque

contiene derivadas segundas del tensor métrico, la variación de su integral de acción

sobre una región puede acabar expresándose en términos de sólo derivadas primeras. De

hecho la forma común de la integral de acción para el campo gravitatorio más

comúnmente en la teoría de la relatividad general es:

Donde:

, es la curvatura escalar del espacio-tiempo.

, son la constante de la gravitación y la velocidad de la luz.

son las componentes de la métrica (pseudo)riemanniana efectiva.

, es el determinante del tensor métrico.

Algunas teorías métricas de la gravitación como la teoría relativista de la gravitación

usan lagrangiano ligeramente más complicado que incluye términos asociados a la masa

del gravitón. Si se substituye la integral de acción anterior en las ecuaciones de Euler-

Lagrange se obtienen como resultado las ecuaciones de campo de Einstein.

1.3. Formalismo lagrangiano. 1.3.1. Lagrangiano.

En física, un lagrangiano es una función matemática a partir de la cual se pueden

obtener la evolución temporal, las leyes de conservación y otras propiedades

importantes de un sistema físico. De hecho, en física moderna el lagrangiano se

considera el objeto más fundamental que describe un sistema físico.

El formalismo lagrangiano permite alcanzar, tanto las leyes de Newton como las

ecuaciones de Maxwell, los cuales pueden ser derivados como las ecuaciones de Euler-

Lagrange de un lagrangiano clásico. Igualmente la forma del lagrangiano determina las

propiedades básicas del sistema en teoría cuántica de campos.

En mecánica clásica la función lagrangiana de un sistema conservativo, denotada

mediante L, es simplemente la diferencia entre su energía cinética, T, y su energía

potencial, V. El dominio apropiado del lagrangiano es un espacio de fases, y debe

obedecer las ecuaciones de Euler-Lagrange. El concepto fue utilizado originalmente en

una reformulación de la mecánica clásica conocida como la mecánica lagrangiana. En

coordenadas generalizadas este lagrangiano toma usualmente la forma:

,

Donde es el tensor métrico del espacio euclídeo expresado en las coordenadas

generalizadas coorrespondientes, que sólo depende de las propias coordenadas de las

velocidades .

En mecánica relativista la acción de una partícula se obtiene mediante cálculo a lo largo

de la línea de universo de una partícula, concretamente una partícula material de masa m

se mueve a lo largo de una geodésica. La integral de acción a lo largo de una curva L

viene dada en coordenadas curvilíneas por:

1.3.1.1. Lagrangiano en teoría clásica de campos

Un campo físico es cualquier tipo de magnitud que presenta variación tanto espacial

como temporal. El tratamiento de este tipo de entidades físicas requiere el tratamiento

mediante densidades lagrangianas, ya que no son representables como sistemas con un

número finito de grados de libertad. Además su tratamiento riguroso generalmente

requiere el uso de la mecánica relativista para explicar su propagación. Los campos con

los que usualmente trata la teoría clásica de campos:

Campo electromagnético, que es el campo asociado a la interacción de partículas

cargadas, y que en última instancia explica las propiedades de la materia

convencional, como las propiedades de sólidos, líquidos y gases, fenómenos

como el color, la luz, etc.

Campo gravitatorio, es un tipo de campo relativamente débil, comparado con el

campo electromagnético, pero al ser acumulativo su efecto, es el único relevante

a escala cósmica para explicar la evolución del universo.

Campos cuánticos tratados clásicamente, que permiten formular primeras

aproximaciones para campos libres que resultan útiles cuando se trata la

evolución de campos cuánticos con interacción.

1.3.1.2. Lagrangiano del campo electromagnético

El lagrangiano del campo electromagnético viene dado por un escalar construido a partir

del tensor campo electromagnético:

De hecho este lagrangiano puede reescribirse en términos de los campos eléctrico y

magnético para dar (en unidades cgs):

Introduciendo este lagrangiano en las ecuaciones de Euler-Lagrange, el resultado son las

ecuaciones de Maxwell y aplicando una transformación de Legrendre generalizada se

obtiene la expresión de la energía electromagnética:

1.3.1.3. Lagrangiano del campo gravitatorio

En relatividad general el campo gravitatorio es visto como una manifestación de la

geometría curva del espacio tiempo, por tanto la formulación lagrangiana del campo

gravitatorio relativistamente tratado debe involucrar a algún escalar relacionado con el

tensor métrico y sus derivadas primeras (equivalentemente los símbolos de Christoffel

) o con el tensor de curvatura. Puede probarse que no es posible hallar ningún

escalar que involucre sólo las componentes del tensor métrico y los símbolos de

Christoffel, ya que mediante cierta transformación de coordenadas se pueden anular

éstos últimos (lo cual es precisamente el contenido del llamado principio de

equivalencia).

Es interesante que la curvatura escalar R, nos da una forma de acción adecuada: aunque

contiene derivadas segundas del tensor métrico, la variación de su integral de acción

sobre una región puede acabar expresándose en términos de sólo derivadas primeras. De

hecho la forma común de la integral de acción para el campo gravitatorio más

comúnmente en la teoría de la relatividad general es:

Algunas teorías métricas de la gravitación como la teoría relativista de la gravitación

usan lagrangiano ligeramente más complicado que incluye términos asociados a la masa

del gravitón:

Donde:

, es la curvatura escalar del espacio-tiempo.

, son la constante de la gravitación y la velocidad de la luz.

son las componentes de la métrica (pseudo)riemanniana efectiva y del

espacio de Minkowski subyacente.

, se calculan a partir de los determinantes de la métrica efectiva y

minkowskiana, calculados en las mismas coordenadas.

, es la masa del gravitón.

1.3.1.4. Lagrangiano en teoría cuántica de campos

En mecánica cuántica el lagrangiano es un funcional definido sobre el espacio de

Hilbert del sistema físico bajo consideración. En teoría cuántica de campos

generalmente los campos son distribuciones sobre definidas sobre el espacio-tiempo

cuyos valores son operadores.

En teoría cuántica de campos el lagrangiano de interacción, determina la forma del

exponente de la exponencial del propagador. Como usualmente dicha exponencial se

computa como serie de potencias en que cada término se asocia a un diagrama de

Feynman.

1.3.1.5. Lagrangiano para la ecuación de Dirac

La ecuación de Dirac describe partículas fermiónicas de espín 1/2, de hecho la ecuación

describe a dichas partículas como un campo fermiónico. Esa ecuación del campo

fermiónico que representa las partículas se puede derivar de una densidad lagrangiana.

En concreto para un campo fermiónico libre sin interacción la densidad lagrangiana de

la que se puede derivar la ecuación de Dirac viene dada por:

Donde:

es un espinor de Dirac que representa el campo fermiónico de partículas.

es el adjunto de Dirac del espinor anterior.

es la derivada parcial respecto a las coordenadas.

1.3.1.6. Lagrangiano para QED

El lagrangiano de la electrodinámica cuántica o QED incluye un campo campo de gauge

conmutativo que representa el análogo cuántico potencial electromagnético en

interacción con partículas cargadas de tipo fermiónico (electrones, quarks, ...). El

lagrangiano habitual de partida para QED suele tomarse como:

Donde:

es el el campo ferminónico que representa las partículas con carga eléctrica.

es el campo adjunto de Dirac.

, son las matrices de Dirac que intervienen en forma covariante de la

ecuación de Dirac para los fermiones.

, es la carga eléctrica de la partícula.

, es el tensor de campo electromagnético.

, es la derivada covariante asociada al campo.

1.3.1.7. Lagrangiano de QCD

La cromodinámica cuántica o QCD que describe la interacción entre los quarks y el

campo de gluones puede ser descrita mediante la siguiente acción euclídea, con

lagrangiano dado por:

Donde:

, espinor de Dirac que representa los campos fermiónicos que describen

los quarks (y su adjunto de Dirac).

representa las matrices de Dirac.

, es la derivada covariante asociada al campo gauge

gluónico.

, es el tensor de campo gluónico, análogo al tensor campo electromagnético.

, son las matrices de Gell-Mann para su(3) que satisfacen la reglas de

conmutación

es el espinor del campo "fantasma" de Faddeev–Popov.

1.3.2. Las Ecuaciones de Euler-Lagrange.

Las ecuaciones de Euler-Lagrange son las condiciones bajo las cuales cierto tipo de

problema variacional alcanza un extremo. Aparecen sobre todo en el contexto de la

mecánica clásica en relación con el principio de mínima acción aunque también

aparecen en teoría clásica de campos (electromagnetismo, Teoría general de la

relatividad).

1.3.2.1. Caso discreto

En mecánica clásica, estas ecuaciones establecen que la integral de acción para un

sistema físico es un mínimo. Los sistemas de partículas o sistemas discretos pueden

tienen un número finito de grados de libertad, y en esos casos la integral de acción es

del tipo:

Y su correspondiente variación viene dada por:

Si se impone ahora que para variaciones "cercanas", esto implica que:

donde L es el lagrangiano para el sistema, y xa son las coordenadas generalizadas del

sistema.

1.3.2.2. Caso continuo

La formalización de ciertos problemas físicos requiere construir una integral de acción

sobre un sistema continuo que no puede ser tratado mediante un número finito de

variables o grados de libertad. Así en teoría de campos y mecánica de medios continuos

la acción física puede expresarse como una integral sobre un volumen:

Donde es el elemento de volumen que usualmente viene dado por una n-forma y

representan las variables del campo y sus derivadas respecto a las coordenadas

espaciales (o espacio-temporales). Cuando la acción toma esa forma las ecuaciones de

Euler-Lagrange para el campo que minimiza la anterior integral, usando el convenio de

sumación de Einstein, vienen dadas por:

1.3.2.3. Ecuaciones de Euler-Lagrange en geometría

Las ecuaciones de Euler-Lagrange pueden ser usadas para encontrar fácilmente la

ecuación de las curvas geodésicas en una variedad de Riemann o "espacio curvo". Para

ello consideremos un conjunto de coordenadas (x1, ...x

n) sobre una región abierta U de la

variedad de Riemann VR donde el tensor métrico viene dado por la expresión:

Puesto que dados dos puntos cualesquiera de VR las geodésicas son las líneas de mínima

longitud entre ellos podemos plantear el siguiente problema variacional, para el

cuadrado de la longitud de una curva:

La minimización de la expresión anterior al ser la raíz una función monótona, es

equivalente a la minimización de una integral de acción donde el lagrangiano sea:

De ahí que la ecuación diferencial de las geodésicas venga dada por:

La ecuación anterior de hecho puede, usando la simetría del tensor métrico, escribirse

como:

Que en términos de los símbolos de Christoffel (de primera o segunda especie)

sencillamente como:

Donde se han definido los símbolos de Christoffel como a partir de las derivadas del

tensor métrico y el tensor inverso del tensor métrico:

1.4. Grupos, Álgebra y representaciones de Lie. 1.4.1. El grupo de Lie.

En matemática, un grupo de Lie es una variedad diferenciable real o compleja que es

también un grupo tal que las operaciones de grupo: multiplicación e inversión son

funciones analíticas. Los grupos de Lie son importantes en análisis matemático, física y

geometría porque sirven para describir la simetría de estructuras analíticas. Fueron

introducidos por Sophus Lie en 1870 para estudiar simetrías de ecuaciones

diferenciales.

Los grupos de Lie se clasifican con respecto a sus propiedades algebraicas (simple,

semisimple, resoluble, nilpotente, abeliano), su conexidad (conexo o no conexo) y su

compacidad.

Si G y H son grupos de Lie (reales o complejos ambos), entonces un homomorfismo de

grupo-de-Lie- f: G → H es un homomorfismo de grupo que es también una función

analítica. (Se puede demostrar que es equivalente a requerir solamente que sea función

continua.) La composición de dos tales homomorfismos es otra vez un homomorfismo,

y la clase de todos los grupos de Lie (reales o complejos), junto con estos morfismos,

forma una categoría. Dos grupos de Lie se dicen isomorfos si existe un homomorfismo

biyectivo entre ellos cuyo inverso es también un homomorfismo. Los grupos de Lie

isomorfos no necesitan, para cualquier propósito práctico, ser distinguidos; se

diferencian solamente en la notación de sus elementos.

1.4.2. Álgebra de Lie.

En matemática, un álgebra de Lie es la estructura algebraica que describe un conjunto

de transformaciones infinitesimales. Su uso principal reside en el estudio de objetos

geométricos tales como grupos de Lie y variedades diferenciables.

A cada grupo de Lie, podemos asociar un álgebra de Lie que captura totalmente la

estructura local del grupo.

Un álgebra de Lie A es un espacio vectorial sobre un cierto cuerpo F junto con una

operación binaria [·, ·] : A × A -> A, llamada corchete de Lie, que satisface las

propiedades siguientes:

es bilineal, es decir, [a x + b y, z] = a [x, z] + b [y, z] y [z, a x + b y] = a [z, x] + b [z, y] para todo a, b en F y todo x, y, z en A.

satisface la identidad de Jacobi, es decir, [[x, y], z] + [[z, x], y] + [[y, z], x] = 0 para todo x, y, z en A.

[x, x] = 0 para todo x en A.

Observe que la primera propiedad y la tercera juntas implican [x, y] = − [y, x] para todo

x, y en A ("anti-simetría") si el cuerpo F es de característica diferente de dos. Observe

también que la multiplicación representada por el corchete de Lie no es, en general,

asociativa, es decir, [[x, y], z] no necesariamente es igual a [x, [y, z]].

Un homomorfismo φ : A -> B entre las álgebra de Lie A y B sobre el mismo cuerpo de

base F es una función F-lineal tal que [φ(x),φ(y)] =φ([x, y]) para todo x y y en A. La

composición de tales homomorfismos es otra vez un homomorfismo, y las álgebras de

Lie sobre el cuerpo F, junto con estos morfismos, forman una categoría. Si tal

homomorfismo es biyectivo, se llama un isomorfismo, y las dos álgebras de Lie A y B

se llaman isomorfas. Para todos los efectos prácticos, las álgebras de Lie isomorfas son

idénticas.

Una subalgebra del álgebra de Lie A es un subespacio vectorial B de A tal que [x, y] ∈

B para todo x, y ∈ B. i.e. [B, B] ⊆ B. La subalgebra es entonces un álgebra de Lie.

Un ideal del álgebra de Lie A es un subespacio vectorial I de A tales que [a, y ] ∈ I para

toda a ∈ A y y ∈ I. i.e. [A, I] ⊆ I. Todos los ideales son subalgebras. Si I es un ideal de

A, entonces el espacio cociente A/I se convierte en una álgebra de Lie definiendo [x + I,

y + I] = [x, y] + I para todo x, y ∈ A. Los ideales son precisamente los núcleos de

homomorfismos, y el teorema fundamental de homomorfismos es válido para las

álgebras de Lie.

Las álgebras de Lie reales y complejas se pueden clasificar hasta un cierto grado, y esta

clasificación es un paso importante hacia la clasificación de los grupos de Lie. Cada

álgebra de Lie real o compleja finito-dimensional se presenta como el álgebra de Lie de

un único grupo de Lie simplemente conexo real o complejo (teorema de Ado), pero

puede haber más de un grupo, aún más de un grupo conexo, dando lugar a la misma

álgebra. Por ejemplo, los grupos SO(3) (matrices ortogonales 3×3 de determinante 1) y

SU(2) (matrices unitarias 2×2 de determinante 1), ambos dan lugar a la misma álgebra

de Lie, a saber R³ con el producto vectorial. Un álgebra de Lie es abeliana si el corchete

de Lie se anula, es decir [x, y] = 0 para todo x e y. Más generalmente, un álgebra de Lie

A es nilpotente si la serie central descendente

A ⊇ [A, A] ⊇ [[A, A]], A] ⊇ [[[A, A]], A], A] ⊇...

acaba haciéndose cero. Por el teorema de Engel, un álgebra de Lie es nilpotente si y solo

si para cada x en A, la función ad(x): A -> A definida por

ad(x)(y) = [x, y]

es nilpotente. Más generalmente aún, un álgebra de Lie A es soluble si la serie derivada

A ⊇ [A, A] ⊇ [[A, A]], [A, A]] ⊇ [[[A, A]], [A, A]],[[A, A]], [A, A]]] ⊇ ...

acaba haciéndose cero. Una subálgebra soluble maximal se llama una subálgebra de

Borel.

Un álgebra de Lie A se llama semisimple si el único ideal soluble de A es trivial.

Equivalente, A es semisimple si y solamente si la forma de Killing K(x, y) =

tr(ad(x)ad(y)) es no-degenerada; aquí tr denota el operador de traza. Cuando el cuerpo F

es de característica cero, A es semi-simple si y solamente si cada representación es

totalmente reducible, esto es, que para cada subespacio invariante de la representación

hay un complemento invariante (teorema de Weyl). Un álgebra de Lie es simple si no

tiene ningún ideal no trivial. En particular, un álgebra de Lie simple es semi-simple, y

más generalmente, las álgebras de Lie semi-simples son suma directa de simples. Las

álgebras de Lie complejas semi-simples se clasifican a través de sus sistemas de raíz.

1.5. Grupo de Lorentz.

El producto escalar euclídeo se puede expresar en términos matriciales < x, y > = xt·I·y,

donde los vectores se escriben como matrices columna. Si G = diag(1,….,1,-1,…..-1)

p q

con p+q = n, se puede definir un nuevo producto(·,·) mediante G:

Si A es una matriz real no singular nxn, entonces:

Comparando con la expresión para (x, y), resulta que (Ax, Ay) = (x, y) para todo x, y

pertenecientes a si y solo si .

Con O(p,q) se denota al grupo pseudo-ortogonal, constituido por los automorfismos de

que preservan el producto (·,·). Por lo anterior:

El grupo de Lorentz es isomorfo a al grupo ortonormal generalizado , es decir,

el grupo de transformaciones lineales que deja invariante la métrica del espacio de

Minkowski o grupo de isometría del espacio de Minkowski. Matemáticamente está

formado por cualquier matriz que satisfaga la relación:

O en forma matricial más compacta:

El grupo de Lorentz no es el conjunto más general de transformaciones que dejan

invariantes las ecuaciones de la teoría general de la relatividad, ya que no incluye las

traslaciones espacio-temporales. De hecho, el grupo de Lorentz es el subgrupo maximal

del grupo de Poincaré tal que no incluye las traslaciones.

1.5.1. Subgrupos.

El grupo de Lorentz está formado por cuatro componentes conexas, algunos de los

subgrupos más importantes que dicho grupo son:

El subgrupo con transformaciones de Lorentz cuyo determinante es igual a 1.

El subgrupo de Lorentz de trasformaciones propias, que es un subgrupo del

anterior tal que todas las transformaciones dentro de él cumplen que Λ00 > 0.

El subgrupo de rotaciones en isomorfo a , que es un subgrupo del

anterior.

El subgrupo de transformaciones ortocrono formado por todas aquellas

transformaciones tales que Λ00 > 0.

1.5.2. Transformación de Lorentz.

Las transformaciones de Lorentz, dentro de la teoría de la relatividad especial, son un

conjunto de relaciones que dan cuenta de cómo se relacionan las medidas de una

magnitud física obtenidas por dos observadores diferentes. Estas relaciones

establecieron la base matemática de la teoría de la relatividad especial de Einstein, ya

que las transformaciones de Lorentz precisan el tipo de geometría del espacio-tiempo

requeridas por la teoría de Einstein.

Las transformaciones de Lorentz relacionan las medidas de una magnitud física

realizadas por dos observadores inerciales diferentes, siendo el equivalente relativista de

la transformación de Galileo utilizada en física hasta aquel entonces.

La transformación de Lorentz permite preservar el valor de la velocidad de la luz

constante para todos los observadores inerciales.

Una de las consecuencias de que —a diferencia de lo que sucede en la mecánica

clásica— en mecánica relativista no exista un tiempo absoluto, es que tanto el intervalo

de tiempo entre dos sucesos, como las distancias efectivas medidas por diferentes

observadores en diferentes estados de movimiento son diferentes. Eso implica que las

coordenadas de tiempo y espacio medidas por dos observadores inerciales difieran entre

sí. Sin embargo, debido a la objetividad de la realidad física las medidas de unos y otros

observadores son relacionables por reglas fijas: las transformaciones de Lorentz para las

coordenadas.

Para examinar la forma concreta que toman estas transformaciones de las coordenadas

se consideran dos sistemas de referencia inerciales u observadores inerciales: y y se

supone que cada uno de ellos representa un mismo suceso S o punto del espacio-tiempo

(representable por un instante de tiempo y tres coordenadas espaciales) por dos sistemas

de coordenadas diferentes:

Puesto que los dos conjuntos de cuatro coordenadas representan el mismo punto del

espacio-tiempo, estas deben ser relacionables de algún modo. Las transformaciones de

Lorentz dicen que si el sistema está en movimiento uniforme a velocidad a lo largo

del eje X del sistema y en el instante inicial ( ) el origen de coordenadas de

ambos sistemas coinciden, entonces las coordenadas atribuidas por los dos observadores

están relacionadas por las siguientes expresiones:

O equivalentemente por las relaciones inversas de las anteriores:

Donde es la velocidad de la luz en el vacío. Las relaciones anteriores se pueden

escribir también en forma matricial:

Donde se ha introducido para abreviar las expresiones el factor de Lorentz y la

velocidad relativa respecto de la luz:

La transformación de Lorentz anterior toma esa forma en el supuesto de que el origen

de coordenadas de ambos sistemas de referencia sea el mismo para t = 0; si se elimina

esta restricción la forma concreta de las ecuaciones se complica. Si, además, se elimina

la restricción de que la velocidad relativa entre los dos sistemas se dé según el eje X y

que los ejes de ambos sistemas de coordenadas sean paralelos, las expresiones de la

transformación de Lorentz se complican más aún, denominándose la expresión general

transformación de Poincaré.

Hasta ahora se ha considerado sólo sistemas inerciales en movimiento relativo respecto

al eje X, pero igualmente se podría haber considerado sistemas de ejes paralelos

respecto a los ejes Y y Z y, en ese caso, las matrices de transformación de coordenadas

vendrían dadas por matrices similares a las consideradas en los apartados anteriores de

la forma:

Las transformaciones anteriores se llaman a veces boosts, rotaciones espacio-temporales

o a veces transformaciones de Lorentz propiamente dichas. El producto de cualquier

número de transformaciones del tipo anterior constituye también una transformación de

Lorentz. Todos esos productos conforman un subgrupo del grupo de Lorentz propio. En

general el grupo de Lorentz propio está formado por:

Rotaciones espacio-temporales o boosts, que pueden escribirse como el producto de

un número finito de boosts del tipo [*].

Rotaciones espaciales, consistentes en un giro de ejes. Este tipo de transformación

también forma parte del grupo de Galileo.

El grupo de Lorentz propio así definido es un grupo de Lie conexo. Si a estas

transformaciones propias se le añaden transformaciones impropias como las inversiones

temporales y las reflexiones espaciales resulta el grupo de Lorentz completo, formado

por cuatro componentes conexas cada una de ellas homeomorfa al grupo de Lorentz

propio. Una vez definido el grupo de Lorentz podemos escribir las transformaciones

lineales más generales posibles entre medidas tomadas por observadores inerciales

cuyos ejes de coordenadas coinciden en el instante inicial:

Donde además del boost que da la transformación de coordenadas según la velocidad de

separación relativa se han incluido las dos rotaciones en términos de los ángulos de

Euler:

La matriz R(φ1,φ2,φ3) alinea el primer sistema de coordenadas de tal manera que el eje

X transformado pase a ser paralelo a la velocidad de separación de los dos sistemas.

La matriz R(θ1,θ2,θ3) es la rotación inversa de la que alinearía el eje X del segundo

observador con la velocidad de separación.

En forma más compacta podemos escribir la última transformación en forma tensorial

usando el convenio de sumación de Einstein como:

1.5.3. Transformaciones de Lorentz para el momento y la energía.

El requerimiento de covariancia de la teoría de la relatividad requiere que cualquier

magnitud vectorial de la mecánica newtoniana venga representada en mecánica

relativista por un cuadrivector o cuadritensor en teoría de la relatividad. Así, el

momento lineal requiere ser ampliado a un cuadrivector llamado cuadrivector energía-

momento o cuadrimomento, que viene dado por cuatro componentes, una componente

temporal (energía) y tres componentes espaciales (momentos lineales en cada dirección

coordenada):

Cuando se examina los cuadrimomentos medidos por dos observadores inerciales, se

encuentra que ambos miden componentes diferentes del momento según su velocidad

relativa a la partícula observada (algo que también sucede en mecánica newtoniana). Si

se denota al cuadrimomento medido por dos observadores inerciales y con sistemas

de coordenadas cartesianas de ejes paralelos y en movimiento relativo según el eje X,

como los que se consideraron en el apartado anterior, los cuadrimomentos medidos por

ambos observadores están relacionados por una transformación de Lorentz dada por:

Y la transformación inversa viene dada similarmente por:

O equivalentemente en forma matricial los dos conjuntos anteriores de ecuaciones se

representan como:

Donde se ha introducido de nuevo para abreviar las expresiones el factor de Lorentz y la

velocidad relativa respecto de la luz.

1.5.4. Transformaciones de Lorentz en forma tensorial.

Supongamos ahora que en lugar de medir magnitudes vectoriales dos observadores se

ponen a medir las componentes de alguna otra magnitud tensorial, supongamos que los

observadores y miden en sus sistemas de coordenadas la misma magnitud tensorial

pero cada uno su propio sistema de coordenadas llegando a:

El postulado de que existe una realidad objetiva independiente de los observadores y

que las medidas de estos pueden ser comparadas mediante las transformaciones de

covariancia adecuadas conduce a que si estos observadores son inerciales sus medidas

estarán relacionadas por las siguientes relaciones:

Donde las matrices Λ se definen, al igual que el apartado anterior mediante el producto

de dos rotaciones espaciales y una rotación temporal (boost) simple.

1.6. Teorema de Noether.

El teorema de Noether es un resultado central en física teórica. Expresa que la

existencia de ciertas simetrías abstractas en un sistema físico comporta la existencia de

las leyes de conservación. El teorema se denomina así por la matemática Emmy

Noether, quien lo formuló. Además de permitir aplicaciones físicas prácticas, este

teorema constituye una explicación de por qué existen leyes de conservación y

magnitudes físicas que no cambian a lo largo de la evolución temporal de un sistema

físico.

El teorema de Noether relaciona pares de ideas básicas de la física: una es la invariancia

de la forma que una ley física toma con respecto a cualquier transformación

(generalizada) que preserve el sistema de coordenadas (aspectos espaciales y temporales

tomados en consideración), y la otra es la ley de conservación de una cantidad física.

Informalmente, el teorema de Noether se puede establecer como: A cada simetría

(continua) le corresponde una ley de conservación y viceversa. El enunciado formal del

teorema deriva una expresión para la cantidad física que se conserva (y, por lo tanto,

también la define) de la condición de invariancia solamente. Por ejemplo:

la invariancia con respecto a la (dirección del eje de) rotación da la ley de conservación

del momento angular.

la invariancia de sistemas físicos con respecto a la traslación (dicho simplemente, las

leyes de la física no varían con la localización en el espacio) da la ley de conservación

del momento lineal.

la invariancia con respecto a (la traslación en) el tiempo da la ley de conservación de la

energía.

Al subir a la teoría cuántica de campos, la invariancia con respecto a la transformación

general de gauge da la ley de la conservación de la carga eléctrica, etcétera. Así, el

resultado es una contribución muy importante a la física en general, pues ayuda a

proporcionar intuiciones de gran alcance en cualquier teoría general en física, con sólo

analizar las diversas transformaciones que harían invariantes la forma de las leyes

implicadas.

Rotaciones y momento angular

Cuando el lagrangiano de un sistema físico presenta simetría rotacional, es decir, existe

un grupo de transformaciones isomorfo a un subgrupo unidimensional del grupo de

rotaciones o grupo especial ortogonal entonces existe una magnitud física conservada

llamada momento angular que tiene un valor constante a lo largo de la evolución

temporal. Es decir, dicha magnitud no cambia de valor a medida que el sistema

evoluciona, razón por la cual dicha magnitud se llama constante del movimiento o

magnitud conservada.

Traslaciones y momento lineal

Análogamente si el lagrangiano de un sistema físico es invariante bajo cierto grupo

uniparamétrico de traslaciones entonces existe una componente del momento lineal

paralela a dichas traslaciones que no varía con el tiempo, a medida que el sistema

evoluciona. Es decir, a pesar de que el estado de movimiento de una partícula o el

estado físico del sistema varíe, dicha magnitud física siempre mantiene el mismo valor,

por complicada que sea la evolución del sistema.

Invariancia temporal y energía

De modo similar al caso anterior, la independencia del tiempo del lagrangiano, puede

ser vista como una invariancia frente a "traslaciones temporales". En este caso la

magnitud conservada es el Hamiltoniano o la integral de Jacobi-Painlevé. En un sistema

natural si el lagrangiano no depende explícitamente del tiempo se tiene que la energía se

conserva. Es decir, en cualquier en la evolución temporal del sistema la energía no

cambia de valor.

Invariancia gauge y carga

En el contexto de la teoría cuántica de campos la existencia de una simetría gauge

abstracta del lagrangiano que describe la interacción electromagnética implica que

existe una magnitud conservada que puede identificarse con la carga eléctrica, dado que

el grupo de simetría gauge del campo electromagnético es el grupo unitario U(1) la

magnitud conservada es un escalar.

Análogamente, aunque ligeramente más complicado, es el caso de la interacción débil y

la interacción fuerte, cuyos grupos de simetría gauge son SU(2) y SU(3), que no son

conmutativos y llevan a la conservación de la carga de sabor y la carga de color.

1.6.1. Enunciado y demostración.

El teorema de Noether implementa un procedimiento natural para encontrar cantidades

conservadas de un lagrangiano a partir de las simetrías continuas que posee. Aquí

vamos a obtener este teorema de forma constructiva. Comenzamos por considerar una

transformación infinitesimal de la forma

Supongamos que esta transformación es tal que deja invariantes las ecuaciones del

movimiento, es decir, deja la acción invariante, S’=S.

En este contexto, la variación no tiene porque conmutar con la

derivación parcial, ya es la diferencia de dos términos con argumentos distintos.

Por lo tanto, nos será útil considerar la variación con argumentos iguales,

Desarrollando alrededor de x’=x,

Donde hemos considerado tan solo variaciones de primer orden, y además hemos tenido

en cuenta que . Por lo tanto, tenemos:

Por otra parte, la variación de la acción vendrá dada en función de la variación de la

densidad lagrangiana,

Donde . Para escribir las dos integrales para la misma variable

de integración, debemos utilizar un cambio de variable entre ambas. El jacobiano de la

transformación será de la forma

El determinante a primer orden es:

Con lo que la expresión para la variación de la acción queda:

Dado que todos los integrandos son de primer orden en las variaciones, podemos pasar

todas las integrales a la variable x (sin prima) sin ningún jacobiano, ya que este nos

daría contribución de segundo orden:

La variación de la densidad lagrangiana será:

El primer término se anula por las ecuaciones del movimiento, por lo que finalmente

tenemos:

Si , esto significa que existe un vector conservado:

Llamado corriente de Noether tal que . La versión integral de esta

conservación, teniendo en cuenta las componentes espaciales y temporales, nos da

Donde la segunda integral se puede escribir como una integral a la superficie, que se

anulara. Por lo tanto, vemos que la integral a todo el volumen de j0 es una constante del

movimiento, que conocemos como carga de Noether.

Existe una versión más sencilla, pero menos potente, del teorema de Noether donde no

se tiene en cuenta la variación del campo debido a la variación de su argumento. En este

caso, no es necesario definir la variación de tipo , pero a la hora de aplicar el

teorema es necesario tener en cuenta cual es la variación a causa de la variación de

su argumento. En el caso más general que hemos presentado, tan solo es necesario

incluir aquellas variaciones del campo debidas al cambio en su forma funcional.

1.6.2. Ejemplos de amplificación del teorema de Noether.

Para profundizar en el estudio del teorema de Noether, resolvemos algunos ejemplos de

interés.

EJEMPLO 1 (simetría de translaciones). Estudiamos transformaciones del tipo:

Donde es el vector de translación. En este caso, el campo no sufre ninguna variación

intrínseca . Dado que el parámetro de la transformación tiene un índice, la

corriente de Noether tendrá un segundo índice extra:

Y, por lo tanto, tendremos cuatro cargas conservadas para :

Para i=1, 2, 3. Estas cargas se interpretan físicamente como la energía y el momento

total. Por lo tanto, tal y como ocurre en la mecánica de Newton, la energía se conserva

si el sistema es invariante bajo translaciones temporales, y el momento es constante si

hay invariancia ante cambios en el origen de coordenadas.

EJEMPLO 2 (Simetrías internas). En este caso consideraremos un sistema

descrito por una serie de campos, , que es invariante ante transformaciones del

tipo:

Sin variación en el sistema de coordenadas, x’=x. En este caso la corriente de Noether

es:

Y la carga conservada:

EJEMPLO 3 (Simetrías de fase global). Consideramos el lagrangiano de un

campo escalar complejo de masa m:

Que es obviamente simétrico respecto de la transformación de fase global:

Donde es constante. En este caso, la corriente de Noether se obtiene considerando

como campos independientes:

EJEMPLO 4 (Transformaciones de Lorentz). Las transformaciones de Lotentz

se representan mediante aquellas matrices

que dejan invariante la métrica de

Minkowski,

Comencemos por caracterizar una transformación de Lorentz infinitesimal,

,

Y por tanto tenemos

Consideramos la transformación infinitesimal de las coordenadas y el campo:

Donde son los generadores infinitesimales de las transformaciones de

Lorentz, que satisfacen el algebra de Lie:

Una posible representación de este algebra es . La corriente de

Noether en esta ocasión es:

Y en este caso, las cargas conservadas tienen dos índices:

Resultado de interés considerar las componentes espaciales de estas cargas

Donde:

Que están asociadas con el momento angular orbital y de spin, respectivamente. Las

componentes M0i

están relacionadas con la conservación de las coordenadas del centro

de masas y no son de nuestro interés.

En el grupo de Poincare, que agrupa las translaciones espacio temporales, con carga de

Noether , y las transformaciones de Lorentz, generadas por , define la llamada

algebra de Poincare, que cumple las relaciones:

1.6.3. Obtención de la simetría a partir de las cargas.

Una de las ventajas de la versión del teorema de Noether que hemos presentado es que

dada la carga conservada podemos recuperar cual es la simetría que la garantiza. De

hecho, se puede demostrar que la variación a argumentos iguales se puede escribir como

el corchete de Poisson del campo con la carga:

Para demostrarlo, tan solo tenemos que calcular el corchete de Poisson según su

definición:

Que es la expresión para .

1.7. El campo electromagnético y ondas electromagnéticas.

Un campo electromagnético es un campo físico, de tipo tensorial, producido por

aquellos elementos cargados eléctricamente, que afecta a partículas con carga eléctrica.

Fijado un sistema de referencia podemos descomponer convencionalmente el campo

electromagnético en una parte eléctrica y en una parte magnética. Sin embargo, un

observador en movimiento relativo respecto a ese sistema de referencia medirá efectos

eléctricos y magnéticos diferentes, lo cual ilustra la relatividad de lo que llamamos parte

eléctrica y parte magnética del campo electromagnético. Como consecuencia de lo

anterior tenemos que ni el "vector" campo eléctrico ni el "vector" de inducción

magnética se comportan genuinamente como magnitudes físicas de tipo vectorial, sino

que juntos constituyen un tensor para el que sí existen leyes de transformación

físicamente esperables.

Campo electromagnético en teoría de la relatividad

En electrodinámica clásica y sobre todo en teoría de la relatividad el campo

electromagnético se representa por un tensor 2-covariante y antisimétrico, cuyas

componentes son las componentes de lo que en cada sistema de referencia se reflejan

como parte eléctrica y parte magnética del campo:.....

Fuerza de Lorentz

La fuerza de Lorentz puede escribirse de forma mucho más sencilla gracias al tensor de

campo electromagnético que en su escritura vectorial clásica:

(expresión vectorial)

(expresión tensorial relativista)

Ecuaciones de Maxwell

Las ecuaciones de Maxwell también toman formas muy sencillas en términos del tensor

de campo electromagnético:

Donde en la última expresión se ha usado el convenio de sumación de Einstein y donde

la magnitud Jα es el cuadrivector de corriente que viene dado por:

Potencial vector

La forma de las ecuaciones de Maxwell permite que sobre un dominio simplemente

conexo (estrellado) el campo electromagnético puede expresarse como la derivada

exterior de un potencial vector, lo cual facilita enormemente la resolución de dichas

ecuaciones. Usando el convenio de sumación de Einstein tenemos:

Relación que escrita más explícitamente en componentes es:

2. Campos escalares reales y complejos, masivos y son masa, corrrientes conservadas. 2.1. Campos escalares reales.

Ahora aplicaremos la cuantización del oscilador armónico al campo escalar libre.

Escribimos y como combinación lineal de un numero infinito de operadores

creación y aniquilación, etiquetados por el trimomento

Las relaciones de conmutación para y son equivalentes a las siguientes relaciones

de conmutación para los operadores escalera

Esto es fácil de comprobar. Asumimos que

Entonces

Ahora calcularemos el Hamiltoniano en términos de los operadores creación y

aniquilación

Ahora, usando la expresión para la frecuencia , el primer término

desaparece, dejándonos

En este punto nos encontramos con una función delta, evaluada en cero, donde tiene un

pico infinito. Además la integral sobre diverge para grande.

Para enfrentarnos a esto, primero observaremos el estado fundamental, donde este

infinito aparece explícitamente.

2.2. Campos escalares complejos.

Consideremos ahora un campo escalar complejo con el Lagrangiano

Las ecuaciones de movimiento serán

Donde la segunda ecuación es el complejo conjugado de la primera. Si desarrollamos el

operador de campo complejo como suma de ondas planas

Dado que el campo clásico no es real, el campo cuántico correspondiente no es

hermítico. Esta es la razón de que tengamos operadores diferentes y en los

términos de las frecuencias positivas y negativas.

El momento clásico del campo es

Que convertimos en un operador cuántico de la forma

Las relaciones de conmutación entre campos y momentos vienen dadas por

Además de las relaciones típicas debidas a la conjugación compleja.

Se puede ver que estas relaciones de conmutación del campo son equivalentes a las

relaciones de conmutación para los operadores y

y

Resumiendo, cuantizar un campo escalar complejo da lugar a dos operadores de

creación, y

. Estos operadores tienen la interpretación de la creación de dos tipos

de partículas, ambos de masa M y spin cero. Se interpretan como partículas y

antipartículas. Al contrario del campo escalar real, donde solo existía un tipo de

partícula, para el campo escalar complejo cada partícula tiene su propia antipartícula.

La teoría tiene una carga conservada clásica

Que podemos transformar en el operador cuántico

cuenta el número de anti-partículas, menos el número de partículas. Dado que Q es

una magnitud conservada, tenemos que [ ] . Para nuestra teoría libre esto no es

demasiado importante, porque tanto como se conservan por separado, pero más

adelante veremos que en teorías de interacción sigue siendo una cantidad conservada,

mientras que y individualmente no.

2.3. Campos escalares masivos (Partículas).

Es fácil verificar que

Lo que significa que, como en el oscilador armonico, podemos construir los autoestados

de energía actuando sobre el vacío con . Dado

Este estado tiene energía

Donde

Esta es la relación de dispersión relativista para una partícula de masa y trimomento

Interpretamos el estado ⟩ como el momento del autoestado de una única partícula de

masa m. Para recalcar esto, de ahora en adelante escribiremos en lugar de .

Comprobaremos esta interpretación estudiando otros números cuánticos de ⟩.

Podemos tomar el momento total clásico , y escribirlo como un operador. Tras

normalizarlo nos queda

Actuando sobre nuestro estado ⟩ con , vemos que es realmente un autoestado

Que nos dice que el estado ⟩ tiene momento Otra propiedad de ⟩ que podemos

estudiar es su momento angular. Una vez más, tomaremos la expresión clásica del

momento angular total de un campo y la convertiremos en un operador

No es difícil ver que al actuar sobre el estado partícula con momento cero, ⟩

, lo que se interpreta como que la partícula no posee momento angular interno. En

otras palabras, la cuantización del campo escalar da lugar a una partícula de spin 0.

Podemos crear múltiples estados partícula haciendo actuar muchas veces .

Interpretamos el estado en que actúan sobre el vacío como un estado n-partícula

.

Dado que todos los conmutan entre ellos, el estado es simétrico bajo el intercambio

de dos partículas. Por ejemplo

Esto significa que dichas partículas son bosones.

El espacio de Hilbert de nuestra teoría se abarca por completo actuando sobre el vacío

con todas las combinaciones posibles de .

Este espacio se conoce como Espacio de Fock. El espacio de Fock es simplemente la

suma de los espacios de Hilbert de n-partículas, para todo . Existe un operador útil

que cuenta el número de partículas de un estado concreto en el espacio de Fock. Se

llama operador número N.

Y satisface que

Este operador conmuta con el Hamiltoniano, [ ] , asegurando que el número de

partículas se conserva. Esto significa que podemos colocarnos en un sector de n-

particular, y seguir ahí. Esta es una propiedad de las teorías libres, pero no seguirá

siendo cierta cuando consideremos interacciones. Las interacciones crean y destruyen

particular, moviéndonos entre diferentes sectores del espacio de Fock.

Aunque nos estemos refiriendo a los estados ⟩ como particular, estos no están

localizados en el espacio, son autoestados del momento. Recordemos que en mecánica

cuántica los autoestados de la posición y el momento no son buenos elementos de un

espacio de Hilbert, dado que no son normalizables. De forma similar, en teoría cuántica

de campos ni los operadores ni son buenos operadores sobre el espacio de

Fock, dado que no producen estados normalizables.

Son distribuciones evaluadas en operadores, en lugar de funciones. Esto significa que

aunque tiene un valor esperado en el vacío bien definido, las fluctuaciones del

operador sobre un punto fijado son infinitas.

Podemos construir operadores bien definidos dispersando estas distribuciones sobre el

espacio. Por ejemplo, podemos crear un paquete de ondas

Que está parcialmente localizado tanto en el espacio de momentos como en el de

posiciones.

3. Campos escalares lineales con fuentes, propagadores, desarrollo en ondas planas de campos escalares en el vacío. 3.1. Microcausalidad.

La amplitud de probabilidad de que una partícula se propague de ( )

viene dada por

Esta última integral se puede resolver de forma aproximada mediante el método de la

máxima pendiente. Para una separación de tipo espacial, , y para una gran

separación radial, , se obtiene

Que nunca se anula de forma exacta. Por lo tanto, las partículas pueden viajar a

velocidades superiores a la de la luz. Sin embargo, esto no viola el principio de

causalidad, ya que no implica la posibilidad de transmitir información a velocidades

hiperluminicas.

La condición que debemos pedir para garantizar la causalidad es que el hacho de

efectuar dos acciones en dos puntos del espacio tiempo, x e y, separados por un vector

de tipo espacial, no se afecten mutuamente; dicho de otra forma, que conmuten,

(FIGURA: Circuito de integración para el propagador retardado. El radio se

debe hacer tender a infinito)

El cálculo para comprobar que se cumple la formula anterior es trivial

Dado que la separación x-y es un cuadrivector de tipo espacio, podemos realizar un

cambio de sistema de referencia tal que x0-y

0=0, y dado que integramos a todo el

espacio de trimomentos, los dos términos de la ecuación anterior se cancelan

exactamente.

Otros resultados interesantes y que nos serán de utilidad posteriormente son los

siguientes

3.2. Campos escalares lineales con propagadores.

Preparamos una partícula en un punto del espaciotiempo. ¿Qué amplitud

encontraremos en un punto ?

La función se conoce como propagador. Para separaciones de género espacio

decae rápidamente como una exponencial, pero no se anula.

El campo cuántico se escapa del cono de luz.

Antes hemos visto que las medidas de genero espacio conmutan, y que la teoría es

causal. Para unir ambas cosas reescribimos el conmutador

Si

Cuando se cumple que no existe manera invariante Lorentz de ordenar

eventos. Si una particula puede viajar en una dirección de genero espacio de ,

puede hacerlo también de . En cualquier medida, las amplitudes de estos dos

eventos se cancelan.

Con un campo escalar complejo podemos echar un ojo a la ecuación [ ]

fuera del cono de luz. La interpretación es que la amplitud de una partícula

propagándose de cancela la amplitud de la antipartícula que viaja de . De

hecho, esta es también la interpretación en el campo escalar real, dado que cada

partícula es su propia antipartícula.

Existe otra forma de presentar el propagador. Esto es utilizar una función de Green del

operador de Klein-Gordon. Manteniéndonos lejos de las singularidades, tenemos

Es esta derivación no hemos hecho uso del contorno, pero para algunos propósitos es

útil usar los contornos que dan lugar a las funciones de Green.

Por ejemplo, la función de Green atrasada, que viene dada por el contorno de la

izquierda, y que tiene la propiedad de

La función de Green atrasada es útil en teoría clásica de campos si conocemos el valor

inicial de alguna configuración y queremos saber cómo evolucione en presencia de

alguna fuente. Queremos conocer la solución de la ecuación inhomogenea de Klein-

Gordon para alguna función .

De forma similar podemos construir la función adelantada que se anula para

, lo que es útil si queremos conocer el estado inicial de una configuración a

partir de su estado actual.

3.3. Desarrollo en ondas planas de campos escalares en el vacío.

Siguiendo el mismo procedimiento que con el oscilador armonica, definiremos el vacío

⟩, imponiendo que es aniquilado por cualquier

Con esta definición, la energía del estado fundamental viene del segundo término de

la ecuación para hallada al final del apartado anterior

El objetivo de la teoría cuántica de campos es enfrentarse a los infinitos. Cada uno nos

dice algo importante, normalmente que estamos haciendo algo mal, o haciendo la

pregunta equivocada. Ahora veremos de donde aparece este infinito y qué hacer con él.

Realmente hay dos infinitos diferentes en nuestra expresión. El primero aparece debido

a que el espacio es infinitamente grande (divergencia infrarroja) . Para extraer este

infinito pondremos nuestra teoría en una caja de lado , imponemos condiciones de

contorno periódicas al campo, y finalmente tomamos el límite cuando

Donde es el volumen de la caja. Entonces la divergencia de aparece porque

estamos calculando la energía total, en lugar de la densidad de energía. Para llegar a la

densidad de energía podemos simplemente dividir entre el volumen

Lo que sigue siendo infinito. Vemos que es la suma las energías de los estados

fundamentales de cada uno de los osciladores armónicos, pero debido al límite

de la integral . Este infinito aparece al asumir que la teoría es válida para

distancias arbitrariamente cortas, correspondientes a energías arbitrariamente altas

(divergencia ultravioleta). Esto es absurdo.

Podemos tratar este infinito de una manera práctica. En física solo estamos interesados

en medir diferencias de energías. No existe un modo de medir directamente, por lo

que simplemente redefinimos el Hamiltoniano eliminando ese infinito.

De manera que con esta nueva definición ⟩ .

Normalización relativista:

Hemos definido el vacío, ⟩ que se normaliza como ⟨ ⟩ . Los estados una-

particula ⟩ ⟩ entonces satisfacen

¿Es esto invariante Lorentz? Supongamos que tenemos una transformación de Lorentz

Tal que el trivector transforma como . En teoría cuántica lo deseable sería que los

dos estados estuviesen relacionados mediante una transformación unitaria.

Esto significaría que la normalización de ⟩ y ⟩ sería la misma siempre que y

estuviesen relacionadas mediante una transformación de Lorentz. Pero eso no es

realmente lo que tenemos. En general

Para una función desconocida . ¿Cómo solucionamos esto?

Lo que tenemos que hacer es buscar un objeto que sepamos que es invariante Lorentz.

Ese objeto es el operador identidad de los estados una-particula. Tras normalizarlo,

sabemos que viene dado por

Este operador es invariante Lorentz, pero está formado por dos términos, la unidad

∫ y el proyector ⟩⟨ , que de forma individual no son invariantes Lorentz.

Para construir una unidad invariante Lorentz, tomaremos ∫ , que es un invariante

Lorentz. Y la relación de dispersión relativista para una partícula masiva, que también

lo es.

Resolviendo para obtenemos dos ramas de soluciones: . Pero la elección

de rama es otro concepto invariante Lorentz. Uniéndolo todo, la siguiente combinación

debe ser un invariante Lorentz.

La unidad invariante es entonces

Entonces obtenemos que la función invariante Lorentz para los trivectores es

Que viene de que

Los estados momento relativista normalizados vienen dados por

Que ahora satisfacen

Y por último podemos reescribir la identidad para los estados una-partícula como

3.4. Propagador retardado.

Volvamos a considerar el conmutador del operador campo en dos puntos diferentes,

ahora considerando una separación arbitraria, no necesariamente de tipo espacio,

Si consideramos x

0>y

0, para simplificar esta igualdad podemos hacer uso de la

igualdad

Donde la integración se hace sobre el contorno de la figura anterior. El factor (-1) se

debe incluir ya que la integración se hace en el sentido de las agujas del reloj. En el

momento de calcular los polos hemos tenido en cuenta que .

(FIGURA: Prescripción para el paso de los polos en el propagador de Feynman).

En el caso y0>x

0, el circuito de integración debe cerrarse por el semiplano superior, y

por lo tanto no contiene ningún polo, por lo que la integración da cero. Esto nos permite

definir el propagador retardado,

Para comprobar que el propagador es, en efecto, una función de Green retardada

asociada a la ecuación de Klein-Gordon, debemos comprobar que dicho propagador

cumple la ecuación de Klein-Gordon inhomogenea, donde el termino inhomogeneo es

proporcional a la delta de Dirac en todas las variables,

El ultimo término de la segunda igualdades nulo. Teniendo en cuenta que la derivada de

la función paso de Heaviside es la delta de Dirac, esta ecuación se escribe de la forma

Finalmente obtenemos el resultado deseado

El hecho de que el propagador retardado corresponda a la función de Green retardada

del sistema nos permite calcularlo empleando toda la potencia del método de las

funciones de Green. En particular, el propagador retardado se puede calcular realizando

la transformada de Fourier de la ecuación de Klein-Gordon para el propagador.

4. La ecuación de Dirac, representaciones espinoriales del Grupo de Lorentz y covariancia relativisra, corrientes conservadas, desarrollo en ondas planas de las soluciones de la ecuación de Dirac en el vacío. 4.1. La ecuación de Dirac.

En esta sección describiremos la ecuación de Dirac, cuya cuantización da lugar a las

partículas fermionicas de spin ½ .

De forma general, un campo puede transformar como

Donde las matrices [ ] forman una representación del grupo de Lorentz. Implicando

que

Y que [ ] [ ] y que [ ] . ¿Cómo buscamos las diferentes

representaciones? Tenemos que fijarnos en las transformaciones infinitesimales del

grupo de Lorentz y estudiar el álgebra de Lie resultante. Si escribimos

Para infinitesima, entonces la condición para una transformación de Lorentz

Implica que debe ser antisimetrica

Una matriz antisimetrica tiene componentes independientes, lo que encaja con

las seis transformaciones básicas del grupo de Lorentz. Introduciremos ahora una base

para estas matrices.

Llamaremos a estas matrices , con , índices atisimetricos. La

antisimetría de estos índices nos dice que, por ejemplo , con lo que

nos etiquetan seis matrices diferentes. Estas matrices también son antisimetricas en los

índices .

Con esta notación podemos escribir una base para seis matrices antisimetricas

como

Donde los índices son los de las matrices, mientras que denotan con que

elemento de la base estamos trabajando. Para usar estas matrices de manera practica

tendremos, casi siempre, que bajar uno de los índices, con lo que nos quedaría

Al haberlo bajado mediante la métrica de Minkowski, aceptamos varios signos menos

que hacen que, al escribirlas de esta forma, las matrices no tengan por qué seguir siendo

siempre antisimetricas.

Dos ejemplos son

La primera genera los boosts en la dirección . Es real y simétrica. La segunda genera

rotaciones en el plano . Es real y antisimetrica. Ahora podemos escribir

cualquier

como combinación lineal de las

Donde son simplemente seis números que nos indican que transformación de

Lorentz estamos haciendo. Las seis matrices se llaman generadores de las

transformaciones de Lorentz. Los generadores obedecen las relaciones del algebra de

Lie del grupo de Lorentz

Una transformación de Lorentz finita podemos entonces expresarla como exponencial

Ahora tenemos un campo nuevo con el trabajar, el espinor de Dirac , y queremos

construir una ecuación del movimiento que sea invariante Lorentz. Para ello, tenemos

que construir una acción que sea invariante Lorentz.

Cojamos una representación del algebra de Clifford, que satisfaga que y que

( ) . Entonces para tenemos

Que, por otro lado, significa que

Y que

Sabiendo esto, definimos el adjunto de Dirac.

A partir del espinor de Dirac y su adjunto ahora podemos construir escalares de Lorentz

y vectores de Lorentz , que nos implican que

Y tensores de Lorentz ).

Ahora que tenemos estos tres objetos podemos tratar de construir una acción invariante

Lorentz. Realmente solo necesitamos los dos primeros, y con ellos planteamos

Que se conoce como acción de Dirac. Esta teoría, tras la cuantización, describe

partículas y antipartículas de masa y .

La ecuación de movimiento aparece de la acción anterior al variarla con respecto a y

de forma independiente.

Variándola respecto a tenemos

Esta es la ecuación de Dirac. Y variando respecto a obtenemos la ecuación conjugada

La ecuación de Dirac es una ecuación de primer orden en las derivadas, y aun así

invariante Lorentz. Si hubiésemos tratado de escribir ecuaciones de movimiento de

primer orden para campos escalares, habrían aparecido necesariamente un vector

privilegiado de espacio tiempo, lo que no es invariante Lorentz, pero para el campo

espinorial, el uso de las matrices nos conserva la invariancia.

La ecuación de Dirac mezcla diferentes componentes de mediante matrices , no

obstante cada una de esas componentes individuales es solución de la ecaución de Klein

Gordon.

Con

Dejándonos

Donde la última ecuación no posee matrices , y por tanto se aplica a cada

componente , con .

Ahora introduciremos algo de notación. En adelante muchas veces tendremos que

escribir cuadrivectores contraídos con matrices . Escribiremos

Con esta notación la ecuación de Dirac sería

4.2. Representaciones espinoriales del Grupo de Lorentz y covariancia relativista.

Estamos interesados en encontrar otras matrices que satisfagan las relaciones de

conmutación anteriormente expuestas. Lo que vamos a construir se conoce como

Representación Espinorial. Para ello empezamos trabajando con el álgebra de Clifford.

Donde , con , son un conjunto de cuatro matrices, y el 1 en el lado

derecho representa la matriz unidad. Esto significa que tenemos que encontrar cuatro

matrices tales que para satisfagan que

Y que

No existen representaciones del algebra de Clifford usando matrices o . La

representación más simple que se puede construir se hace en términos de matrices

. Existen muchos ejemplos de matrices de este último grupo que satisfacen el álgebra

de Clifford, por ejemplo una puede ser

Donde

Son las matrices de Pauli, que satisfacen por si mismas que { }

Se pueden construir muchas representaciones del algebra de Clifford cogiendo

para cualquier matriz invertible . Pero resulta que solo existe una representación

irreducible. Las matrices anteriores se conocen como representación quiral o

representación de Weyl. De aquí en adelante solo consideraremos representaciones del

algebra de Clifford que se relaciones con la representación quiral mediante

transformaciones unitarias de .

¿Pero que tiene esto que ver con el grupo de Loretnz? Consideremos el conmutador de

dos

Estas matrices tienen la propiedad de que

Las matrices forman una representación del algebra de Lorentz, lo que significa

que

Espirones:

Las son matrices , porque lo son. Hasta ahora no le hemos dado índices a

las filas y columnas de estas matrices. Las llamaremos simplemente .

Necesitamos un campo sobre el que las matrices pueden actuar. Introducimos el

campo espinorial de Dirac , un objeto con cuatro componentes complejas

etiquetadas como .

Bajo transformaciones de Lorent tenemos

Donde

Tanto como [ ] son matrices . ¿Cómo podemos estar ahora seguros de que

esta representación espinorial es algo nuevo y no es equivalente a la representación

típica

? Para ver que son diferentes, compararemos algunas transformaciones

específicas.

Rotaciones

Si escribimos los parámetros de la rotación como , entonces la matriz de

la rotación es

Donde tenemos que recordar que .

Considerando ahora una rotación de ángulo alrededor del eje , tenemos que

y la matriz espinorial de rotación es

Entonces, bajo rotaciones de ángulo

Que definitivamente no es lo que le ocurre a un vector.

Boosts

Escribiendo los parámetros del boost como tenemos

Espinores Quirales

Cuando hemos necesitado una forma explícita de las matrices , hemos utilizado la

representación quiral

Em esta representación ya hemos calculado la transformación de rotación [ ] y el

boost [ ], y ambos son diagonales por cajas.

Esto significa que la representación espinrial de Dirac del grupo de Lorentz es

reducible. Se descompone en dos representaciones irreducibles, actuando solo sobre

espinores de dos componentes , que están definidos como

Los objetos de dos componentes se llaman espinores de Weyls o espinores quirales.

Transforman de la misma manera bajo rotaciones.

Y bajo boosts como

La Ecuación de Weyl

Veamos ahora en que se convierte el Lagrangiano de Dirac al descomponerlo en

espinores de Weyl

Donde hemos introducido notación nueva para las matrices de Pauli con

Los fermiones con masa requieren tanto como , dado que se acoplan en el termino

de masa. Pero un fermión sin masa puede describirse con solo uno de los dos, con una

de las siguientes ecuaciones de movimiento:

Estas son las ecuaciones de Weyl.

Las matrices del grupo de Lorentz [ ] son diagonales por cajas porque elegimos la

representación

De hecho, por esta razón esta representación se conoce como quiral, porque la

descomposición del espinor de Dirac viene dada por

¿Pero qué ocurre si elegimos una representación diferente del algebra de Clifford? Una

tal que

Ahora [ ] no serán diagonales por bloques. ¿Hay alguna manera invariante de definir

los espinores quirales? Podemos hacerlo introduciendo

Que satisface que

La razón por la que esto se llama es porque el conjunto de matrices

Con satisfacen el álgebra de Clifford de cinco dimensiones

Tambien se puede comprobar que

Lo que significa que es un escalar bajo rotaciones y boosts.

Debido a estas propiedades podemos formar elos operadores de proyección invariantes

Lorentz

De forma que y , y en la representación quiral

De donde vemos que los operadores proyectan sobre los espinores de Weyk . De

todas formas, para una representación arbitraria del algebra de Clifford, podemos usar

para definir los espinores quirales

Que forman las representaciones irreducibles del grupo de Lorentz. suele llamarse

espinor “a derechas”, mientras que es “a izquierdas”.

Paridad

Los espinores están relacionados entre ellos mediante paridad. Ahora nos pararemos

un momento a definir este concepto. El grupo de Lorentz se define por unas

transformaciones tales que

De momento solo hemos considerado transformaciones conectadas con la identidad

de forma continua. Pero hay también dos transformaciones de simetría discretas

incluidas en el grupo de Lorentz, la inversión de tiempo y paridad .

Paridad juega un papel muy importante en el modelo estándar y, concretamente, en la

interacción débil.

Bajo paridad se los espinores a izquierdas y a derechas se intercambian. Este viene de

las transformaciones de los espinores bajo el grupo de Lorentz. En la representación

quiral, las rotaciones y los boosts de los espinores de Weyl tienen la forma

Bajo paridad, las rotaciones se mantienen invariantes, pero los boosts cambian de signo.

Esto nos confirma que

Y si satisface la ecuación de Dirac, entonces el espinor transformado por

paridad también la satisface, implicando que

Interacciones Quirales

Veamos cómo cambian nuestros términos de interacción bajo paridad. Para ello nos

fijaremos en los objetos a partir de los que hemos construido nuestra acción.

Que es la transformación de un escalar. Para el vector , podemos trabajar con las

componentes espaciales y temporales por separado

Que nos dice que transforma como un vector, con la parte espacial cambiando de

signo.

Pero ahora también conocemos , y podemos formar otro escalar de Lorentz y otro

vector. y . ¿Cómo transforman bajo paridad?

Lo que significa que transforma como un pseudoescalar y lo hace como

un vector axial.

Con estos nuevos términos de podemos modificar nuestra Lagrangiano para

construir nuevas teorías. En general estos términos romperán la invariancia bajo

paridad, aunque esto no es siempre cierto. En la naturaleza esta violación de paridad,

mediante , aparece en la interacción débil.

Una teoría que trate de la misma manera se llama teoría vectorial, mientras que una

que diferencie y es una teoría quiral.

Fermiones de Majorana

Nuestro espinor es un objeto complejo. Debe serlo porque la representación [ ]

normalmente es también compleja. Esto significa que si vamos a intentar conseguir un

real, por ejemplo imponiendo que , este no seguirá siendo real tras realizar

una transformación de Lorentz. Pero hay una manera de imponer una condición de

realidad al espinor de Dirac. Para motivar esta posibilidad nos fijaremos en una de las

bases del algebra de Clifford, conocida como la base de Majorana.

Estas matrices satisfacen el álgebra de Clifford. Lo que tienen de especial, es que todas

son imaginarias puras . Esto significa que los generadores del grupo de

Lorentz y las matrices [ ] son reales. Con esta base del algebra de CLifford podemos

trabajar con espinores reales simplemente imponiendo la condición , que ahora

si es preservada bajo transforamciones de Lorentz.

Estos espinores se llaman espinores de Majorana.

Pero ¿Qué ocurre si utilizamos una base general del algebra de CLifford? Vamos a pedir

solo que esta base satisfaga que y que ( ) . Entonces definiremos

la carga conjugada del espinor de Dirac como

Donde es una matriz que satisface

En primer lugar comprobaremos que transforma bien bajo transformaciones de

Lorentz

No solo transforma como esperábamos, sino que si es solución de la ecuación de

Dirac, entonces también lo es. Este se ve en que

Por ultimo imponemos la condición de realidad invariante Lorentz al espinor de Dirac,

para producir el espinor de Majorana

La cuantización del espinor de Majorana da lugar a un fermión que es su propia

antipartícula. Este es exactamente el mismo caso del campo escalar, donde vimos que

un campo escalar real daba lugar a un bosón de spin 0 que era su propia antipartícula.

Y ¿Qué es la matriz ? En la base de Majorana, donde las matrices gamma son

imaginarias, simplemente tenemos que y la condición de Majorana es

simplemente . En la base quiral, solo es imaginaria, y tenemos entonces que

.

Podemos descomponer un espinor de Majorana en términos de espinores de Weyls

como

4.3. Corrientes conservadas. La ecuación de Dirac disfruta de un buen número de simetrías, a continuación

hablaremos de algunas de ellas y de sus corrientes conservadas asociadas.

Traslaciones espaciotemporales

Bajo traslaciones de espacio tiempo el espinor transforma como

El Lagrangiano depende de , pero no de , con lo que obtenemos un tensor de

energía-impulso

Dado que una corriente se conserva solo si se obedecen las ecuaciones de movimiento,

no perdemos nada por imponer las ecuaciones de movimiento alrededor del tensor de

energía impulso. Para el campo espinor, donde las ecuaciones de movimiento son de

primer orden, tenemos que , dejándonos

Y una energía total

Transformaciones de Lorentz

Bajo una transformación de Lorentz infinitesimal, el espinor de Dirac transforma como

Donde tenemos que

Y donde

Son los generadores del algebra de Lorentz, que tras sustituirlos en la ecuación nos

dicen que . Dejandonos

La corriente conservada que aparece debido a las transformaciones de Lorentz se

encuentra mediante los mismos cálculos que hicimos en el primer capítulo para el

campo escalar, con dos diferencias. La primera es que, como antes, , la segunda

es que tenemos un término extra debido al segundo término de nuestra ecuación. Al

final tenemos

Que tras la cuantización, cuando lo convirtamos en un operador, nos dará, debido al

término extra, estados partícula con momento angular interno. Concretamente a

partículas de spin ½ .

Simetría interna vectorial

El Lagrangiano de Dirac es invarante bajo cambios de fase del espinor, eso nos da la

corriente

Donde significa vector, reflejando el hecho de que ambas componentes de

transforman de la misma manera bajo esta simetría. Es faicl comprobar que

es una

corriente conservada bajo las ecuaciones de movimiento

La carga conservada que surge de esta simetría es

Que tiene la interpretación de carga eléctrica, o número de partícula, para los fermiones.

Simetría Axial

Cuando el Lagrangiano de Dirac admite una simetría interna extra, que rota

fermiones a izquierdas y a derechas en su dirección opuesta.

Esto nos da una corriente conservada

Donde significa axial, dado que esto es un vector axial. Esta corriente se conserva

cuando . Podemos calcular, con el Lagrangiano de Dirac completo

Que solo se anula para .

4.4. Desarrollo en ondas planas de las soluciones de la ecuación de Dirac en el vacío.

Pasemos ahora a estudiar las soluciones de la ecuación de Dirac

Empezaremos por un simple ansatz

Donde es un espinor de cuatro componentes, independiente del espacio tiempo .

La ecuación de Dirac entonces se convierte en

Donde estamos usando las definiciones

Esa ecuación tiene como solución

Para cualquier espinor de dos componentes que se pueda normalizar como .

Encontramos más soluciones a la ecuación de Dirac del ansatz

Las soluciones del primer ansatz, que oscilan en el tiempo como , se conocen

como soluciones de frecuencia positiva. Las del segundo, que lo hacen como

se conocen como soluciones de frecuencia negativa. Es importante recordar que ambas

son soluciones de ecuaciones clásicas de campo y tienen energía positiva.

La ecuación de Dirac requiere que los espinores de cuatro componentes satisfagan

que

Cuya solución es

Para espinores de 2 componentes que podamos normalizar como

5. Campo de Dirac con fuentes, propagadores.

La visión original de Dirac acerca de su ecuación era la de que se trataba de una versión

relativista de la ecuación de Schrödinger, con interepretada como la función de onda

para una única partícula con spin. Para reforzar esta interpretación, escribió

Como

Donde y . Aquí, el operador se interpreta como el Hamiltoniano de

un estado una-partícula.

Este es un punto de vista radicalmente diferente del actual, donde es un campo clásico

que debe ser cuantizado. Desde el punto de vista de Dirac, el Hamiltoniano del sistema

es , mientras que para nosotros el Hamiltoniano es el operador del campo.

Indaguemos un poco hacía donde nos lleva la visión de Dirac.

Con la interpretación de como la función de onda de una única particula, las

soluciones de onda plana a la ecuación de Dirac se interpretan como autoestados de

energía con

Que tienen el aspecto de soluciones de energía positiva y negativa. El espectro carece,

de nuevo, de límite inferior. Hay estados con energía arbitrariamente baja. A

primera vista esto es un completo desastre, pero Dirac postuló una ingeniosa solución a

este problema. Dado que los electrones son fermiones, obedecen el principio de

exclusión de Pauli, con lo que podemos simplemente estipular que en el vacío autentico

todos los estados de energía negativa están ya ocupados. Solo los estados de energía

positiva son accesibles. Estos estados ocupados de energía negativa se conocen como

mar de Dirac. Aunque podría ser preocupante pensar en la carga infinita negativa del

vacío, Dirac argumentó que solo serían observables las diferencias de carga.

Tras evitar el desastre creando un mar infinito de estados de energía negativos, Dirac se

dio cuenta de que su teoría hacía una predicción impactante. Supongamos que un estado

de energía negativo es excitado a un estado de energía positivo, dejando tras de sí un

agujero. El agujero tendría las propiedades de un electrón, salvo por la carga, que sería

positiva: el positrón. Ademas, cuando el positrón se encontrase con un electrón, ambos

podrían aniquilarse. Dirac había predicho la antimateria.

Aunque la intuición física de Dirac le llevó a la respuesta correcta, ahora sabemos que

su interpretación no es correcta.

5.1. Propagadores.

Pasemos ahora a la imagen de Heisenberg. Definimos los espinores en cada

punto del espacio tiempo, tal que satisfacen

Lo resolvemos con el desarrollo

Y definimos el propagador femionico usando anticonmutadores

Que, en adelante, escribiremos como

Metiendo los desarrollos anteriores, tenemos

Podemos entonces escribir

En términos del propagador para un campo escalar real que, como recordatorio, se

escribe

6. Cuantificación canónica de campos escalares, espacio de Fock, propagador de Feyman. 6.1. Cuantificación canónica de campos escalares.

En Mecánica Cuántica, la cuantización canónica es una receta que nos lleva desde el

formalismo Hamiltoniano de la dinámica clásica a la teoría cuántica. Esta receta nos

dice que cojamos coordenadas generalizadas y sus momentos generalizados y los

convirtamos en operadores. El corchete de Poisson de la mecánica clásica se transforma

en la estructura de las relaciones de conmutación entre operadores. En unidades donde

En teoría de campos hacemos lo mismo, ahora para el campo y su momento

conjugado . De este modo un campo cuántico es una función evaluada en

operadores del espacio, que obedece las relaciones de conmutación

Debe hacerse notar que, al separar el espacio y el tiempo, hemos perdido la invariancia

Lorentz. Estamos trabajando en la imagen de Schrödinger, de modo que los operadores

y no dependen del tiempo. Toda la dependencia temporal descansa en los

estados ⟩ que evolucionan mediante la ecuación de Schrödinger

Es recomendable tener cuidado por la notación de los estados. Pese a lo simple que

parece, si fuésemos a escribir la función de onda en una teoría cuántica de campos,

dicha función de onda sería un funcional.

La información típica que querremos conocer de la teoría cuántica, es el espectro del

Hamiltoniano. Esto es, por lo general, muy difícil. Una de las razones de que esto ocurra

es que tenemos un número infinito de grados de libertad, al menos uno para cada punto

del espacio. Pero para algunas teorías, conocidas como teorías libres, tenemos un modo

de escribir la dinámica de modo que cada grado de libertad evolucione

independientemente del resto. Las teorías de campo libre suelen tener Lagrangianos con

dependencias cuadráticas en los campos, de modo que las ecuaciones de movimiento

sean lineales.

La teoría libre relativista más sencilla es la ecuación de Klein-Gordon para un campo

escalar real.

Para exponer las coordenadas en que los grados de libertad se desacoplan unos de otros,

simplemente tenemos que tomar la transformada de Fourier

Entonces satisface

De modo que, para cada valor de , es solución dela ecuación de un oscilador

armónico vibrando con frecuencia

La solución general de la ecuación de Klein-Gordon es una superposición lineal de

osciladores armónicos simples, cada uno vibrando a diferente frecuencia con diferente

amplitud. Para cuantizar debemos cuantizar este número infinito de osciladores

armónicos.

6.2. El oscilador armónico simple.

Consideremos el Hamiltoniano de la mecánica cuántica

Con las relaciones de conmutación canonicas [ ] . Para hallar el espectro

definimos los operadores de creación y aniquilación (operadores escalera)

Que pueden invertirse fácilmente para darnos

Sustituyendo en las expresiones anteriores tenemos que

Mientras que el Hamiltoniano viene dado por

Se puede ver fácilmente que los conmutadores entre el Hamiltoniano y los operadores

escalera están dados por

Estas relaciones entre los operadores escalera nos mueven entre autoestados de energía.

Sea ⟩ un autoestado con energía , para el que ⟩ ⟩, podemos construir el

resto de autoestados haciendo actuar los operadores de creación y aniquilación.

Encontramos así que el sistema tiene una escalera de estados con energías

Si la energía tiene un mínimo, debe haber un estado fundamental ⟩ que satisfaga que

⟩ . Este tendrá una energía de estado fundamental

Los estados excitados que aparecen de aplicar repetidas veces serán

Con

6.3. Espacio de Fock.

El espacio de Fock , en mecánica cuántica es un espacio de Hilbert especial, que

se construye como suma directa de productos tensoriales de otro espacio de Hilbert

dado . Este espacio se usa para describir el estado cuántico de un sistema formado

por un número variable o indeterminado de partículas. Recibe su nombre de Vladimir

Fock.

Representación del espacio de Fock, cada cuadro representa un sumando de la suma

directa usada para definir el espacio completo.

Técnicamente, el espacio de Fock es el espacio de Hilbert preparado como suma directa

de los productos tensoriales de los espacios de Hilbert para una partícula:

donde Sν es el operador que simetriza (o antisimetriza) el espacio, de forma que el

espacio de Fock describa adecuadamente a un conjunto de bosones ν=+ (o fermiones

ν=-). H es el espacio de Hilbert para una sola partícula. Esta forma de combinación de

H, que resulta en un espacio de Hilbert "mayor" (el espacio de Fock), contiene estados

para un número arbitrario de partículas.

Téngase en cuenta de que aunque el espacio es aparene mayor, el espacio de Fock es un

espacio de Hilbert separable y por tanto puede construirse un isomorfismo con el

espacio original al ser también separable, por lo que la construcción de Fock puede

considerarse más bien una manera de representar el espacio de Fock más que un ente

matemáticamente diferente

Los estados de Fock son la base natural para este espacio.

Espacio de Fock bosónico

Esta construcción se realiza usando como proyector uno que simetriza los elementos, por

ejemplo, para simetrizar el producto de dos vectores que representan cada el estado de una

partícula:

Este último estado simetrizado representa un estado con dos bosones indistinguibles.

Para el caso de n vectores el operador de simetrización viene dado por:

Donde el sumatorio se extiende a todas las permutaciones posibles del grupo simétrico

de orden n. Obviamente la simetrización de los espacios de cero y de una partícula son

triviales:

Espacio de Fock fermiónico

Generalizando los resultados de la sección anterior construimos los operadores de

antisimetrización. El antisimetrizador de dos partículas viene dado por:

Así este estado antisimetrizado representa, por tanto, un estado con dos fermiones

indistinguibles. Para el caso de n fermiones un estado vendría dado por:

Donde nuevamente el sumatorio se extiende a todas las permutaciones posibles del

grupo simétrico de orden n y donde es el signo de la permutación (+1 si es par, -

1 si es impar).

6.4. Propagador de Feymann. Una de las cantidades más importantes de la teoría de interacciones es el Propagador de

Feynman.

Donde T aparece para marcar el ordenamiento temporal, colocando todos los operadores

evaluados en tiempos posteriores a la izquierda.

Existe una manera de escribir el propagador en término de una integral de

cuadrimomentos

Esta es una integral con singularidades, para cada valor posible de el denominador

produce un polo en . Para

evitarlo debemos elegir un contorno sobre el que integrar.

Donde el residuo para el polo en es . Cuando , cerramos el

contorno en el semiplano inferior, donde , asegurando que la integral se

anula, dado que ( ) .

Aplicando el teorema del residuo al contorno en sentido horario tenemos entonces

Que es el propagador de Feynman para . Por otro lado cuando ,

cerramos el contorno en sentido anti horario en el semiplano superior, y obtenemos

De nuevo llegamos al propagador de Feynman.

Viendo esto, en lugar de especificar el contorno, podemos simplemente escribir el

propagador como

Con e infinitesimal. Esto tiene el efecto de desplazar ligeramente los polos fuera

del eje real, con lo que la integral a lo largo del eje real es equivalente al contorno

antes usado.

7. Cuantificación canónica del campo electromagnético.

El método que se utiliza usualmente para cuantizar el campo electromagnético de basa

en descomponer a éste en osciladores armónicos, lo cual resulta inmediata la

cuantización sin más que utilizar la conocida cuantización del oscilador armónico. Un

punto de partida conveniente son las ecuaciones de Maxwell clásicas en el espacio libre:

Donde son la permeabilidad magnética y permitividad

eléctrica en el vacío respectivamente, que cumplen . Si no hay fuentes

presentes, las ecuaciones de Maxwell son invariantes gauge, es decir, los potenciales

escalares y vector de los que se derivan los campos están determinados

salvo una derivada total con respecto al tiempo el potencial escalar y salvo un gradiente

el potencial vector. En los problemas de óptica cuántica es conveniente elegir el gauge

de Coulomb, en el cual la divergencia del potencial vector es nula. En este gauge, los

campos E y B están determinados por el potencial vector como sigue:

Con la condición del gauge de Coulomb:

Sustituyendo los valores de B y E en función del potencial vector en la última ecuación

de Maxwell y teniendo en cuenta la ecuación anterior se encuentra que el potencial

vector debe cumplir la siguiente ecuación de ondas:

Por sencillez podemos considerar la solución de esta ecuación en un volumen finito V

desarrollando A(r,t) en serie de Fourier:

Introduciendo esta expresión en la ecuación de ondas se llega a una ecuación de

Helmholtz para el conjunto de funciones vectoriales como la siguiente:

Los modos también deben satisfacer la condición de transversalidad:

Además, estos modos forman un conjunto ortonormal completo:

La solución de la ecuación está sujeta a las condiciones de contorno impuestas sobre el

volumen considerando. Supondremos condiciones periódicas para discutir ondas

viajeras en lugar de ondas estacionarias. Para una onda plana en dicho volumen, los

modos se expresan de la siguiente forma:

Siendo el vector de polarización, que es unitario. El índice puede tomar los

valores 1 ó 2, es decir, hay dos polarizaciones posibles. Las condiciones de contorno

periódicas imponen a las componentes del vector de onda las siguientes restricciones:

La condición de transversalidad impone que el vector de polarización sea perpendicular

al vector de ondas, así que:

Con vistas a la cuantización expresamos A(r,t) de la forma:

Donde son constantes adimensionales que representan la amplitud compleja del

modo correspondiente. El campo eléctrico que proporciona este potencial vector se

calcula de forma inmediata:

Clásicamente, estas amplitudes de Fourier son números complejos. La cuantización del

campo va acompañada de la elección de estas amplitudes como operadores mutuamente

adjuntos con la identificación

y los estados de luz son los vectores en el

espacio de Hilbert en el que actúan estos operadores. En las subsecciones siguientes se

presentan los estados de luz relevantes: los estados número o de Fock, coherentes y

comprimidos. Como los fotones son partículas de spin 1 la elección de las reglas de

conmutación debe hacerse de acuerdo a las reglas bosónicas:

Así, las propiedades dinámicas del campo pueden describirse como un conjunto de

osciladores armónicos independientes que obedecen las reglas de conmutación. Esto se

ve claramente expresando el hamiltoniano del campo. Dicho hamiltoniano viene dado

por:

Introduciendo aquí la expresión de E obtenida y la análoga para B y haciendo uso de las

condiciones anteriores, se llega a la siguiente expresión para el hamiltoniano:

Que es la suma de hamiltonianos de osciladores armónicos independientes.

Los autovalores de cada uno de estos hamiltonianos son conocidos y vienen dados por:

Con . Esta expresión puede interpretarse como la excitación de

fotones de energía cada uno más la energía del vacío ⁄ . Cabe destacar que la

energía del vacío calculada sumando para todos los modos es infinita. Sin embargo, lo

importante para nosotros es la medición de diferencias de intensidades, por lo que

podemos considerar que todos los procesos ocurren en una mar del vacío, siendo

detectables sólo las variaciones con respecto a ese fondo, como se pone de manifiesto

en el efecto Casimir. Matemáticamente, esta dificultad puede solventarse tomando como

origen de energías dicha energía del vacío. A partir de ahora y por sencillez se

considerará que sólo hay un modo excitado, con lo cual la suma en modos y los

subíndices k desaparecen.

Comparando las últimas dos expresiones resulta natural llamar al operador

operador número de fotones ya que sus autovalores son precisamente n, que se ha

identificado con el número de fotones existente. Los autovectores del operador número

de fotones son los llamados estados número o estados Fock:

Los estados número son ortonormales y forman un conjunto completo del espacio de

Hilbert asociado. A partir de las relaciones de conmutación se tiene que la acción de los

operadores sobre los estados número es:

Por lo que es natural llamarlo operador creación y destrucción respectivamente. El

estado de vacío se define como aquél que cumple:

Y, a partir de él, es posible crear todos los estados excitados sin más que aplicar

reiteradamente el operador creación, siendo válida la siguiente expresión:

Por ser los operadores creación y destrucción complejos, se puede hacer una

descomposición en sus partes real e imaginaria:

Los operadores X e Y son los llamados operadores cuadratura y pueden despejarse de

las ecuaciones anteriores:

La regla de conmutación entre estos operadores cuadratura es la siguiente:

Y da lugar a la relación de indeterminación:

Donde, como de costumbre, .

Es útil expresar el operador número en función de los operadores cuadratura:

7.1. Estados coherentes.

Consideramos el operador , siendo un número real, y planteemos la

ecuación de autovalores correspondiente:

Los autovectores que satisfacen dicha ecuación son los llamados estados de

incertidumbre mínima, ya que, para ellos, se satisface:

Si las dos incertidumbres coinciden y son iguales a ½. Los estados que cumplen

esta condición son los estados coherentes, y, para ellos, la ecuación de autovalores se

reduce a:

Es decir, son autoestados del operador destrucción. Puede comprobarse que el estado de

vacío definido anteriormente cumple la condición de estado coherente. Luego, el estado

de vacío es a la vez estado número y estado coherente.

Como ya se mencionó anteriormente, los estados número forman un conjunto completo

de vectores, por lo que podemos expresar los estados coherentes como la combinación

lineal de los estados número. Dicho desarrollo es el siguiente:

A partir de este desarrollo es posible calcular el producto escalar de dos estados

coherentes:

Utilizando que los estados número son ortonormales , se obtiene

finalmente:

Como esta expresión es distinta de cero, los estados coherentes no son ortogonales. De

hecho, los estados coherentes son más de los necesarios para construir una base

completa del espacio de Hilbert. Esto permite desarrollar un estado coherente como

suma del resto de estados coherentes. Nótese, sin embargo, que si , el producto

escalar es igual a 1, es decir, los estados coherentes están normalizados. Además, para

los estados coherentes tienden a ser ortonormales, ya que el módulo de su

producto escalar tiende a cero exponencialmente.

El valor medio del número de fotones en un estado coherente es:

A continuación se calculará la incertidumbre en el número de fotones en un estado

coherente. Para ello es necesario calcular el valor medio del cuadrado del operador

número de fotones:

Por lo tanto, la incertidumbre del número de fotones es un estado coherente será:

La probabilidad de encontrar n fotones en un estado coherente viene dada por:

Donde , como se ha demostrado más arriba. La expresión obtenida es una

distribución de Poisson centrada en y de anchura ⁄ .

7.2. Estados coherentes comprimidos.

Los estados que cumplen la ecuación de autovalores

Con se denominan estados coherentes comprimidos. Esta denominación se debe a

que las incertidumbres en las cuadraturas ya no son iguales, estando la fluctuación en

una de las cuadraturas comprimidas con respecto a la otra. Una propiedad muy

importante de los estados comprimidos es que tienen fluctuaciones en una de las

cuadraturas menores que las fluctuaciones del vacío. En efecto, recordando que el vacío

es un estado coherente tiene una fluctuación correspondiente a la de un estado coherente

que es mayor que la correspondiente a una de las cuadraturas de un estado comprimido.

La idea de que exista un estado de luz con fluctuación menor que la del vacío es

inconcebible en el marco de la mecánica clásica, por lo que los estados comprimidos

son estados de luz puramente cuánticos.

Un ejemplo interesante de estado comprimido es el estado de vacío comprimido

definido como el estado que cumple la ecuación de autovalores con .

De la ecuación de autovalores que cumple el estado de vacío comprimido se deduce

que: , al igual que en el caso en el vacío normal. Esto se comprueba

multiplicando por el bra la ecuación de autovalores con y

teniendo en cuenta que un número complejo es nulo si sus partes real e imaginaria lo

son simultáneamente.

El valor medio del número de fotones en un estado coherente comprimido es:

Utilizando ahora que ⁄ y, análogamente

para Y: ⁄ , resulta finalmente para el

valor medio del número de fotones:

Nótese que es un estado coherente, el valor medio del número de fotones es igual a la

suma de los cuadrados de los valores medios de los operadores cuadratura. Por tanto,

estos primeros términos de esta ecuación pueden interpretarse como la contribución de

la parte coherente y el resto de términos corresponde a la parte comprimida.

Mientras que un estado coherente se representa en el plano de amplitudes complejas por

un círculo, indicando que la incertidumbre en las dos cuadraturas son iguales, un estado

comprimido viene representado por una elipse cuyo eje menor se dirige a lo largo del

eje de la cuadratura comprimida (ver figura).

8. Cuantificación canónica del campo de Dirac.

Llegado este momento procederemos a cuantizar el Lagrangiano de Dirac.

Comenzaremos trabajando con como hicimos con el campo escalar, aunque pronto

nos daremos cuenta de que ese no es el camino.

Teorema de Spin-Estadistica

Empezamos definiendo el momento

Para el Lagrangiano de Dirac, el momento conjugado de es . No implica derivada

temporal de . Esto es justo lo que debe ocurrir para una ecuación de movimiento de

primer orden en el tiempo, donde solo necesitamos especificar y para determinar

la evolución completa.

Para cuantizar la teoría ascendemos el campo y su momento a operadores,

satisfaciendo las relaciones de conmutación canonicas

Como estamos trabajando con una teoría libre, donde cada solución clásica es una suma

de ondas planas, escribimos los operadores como

Donde los operadores

crean partículas asociadas a los espinores , mientras que

crean partículas asociadas a . Como con los escalares, las relaciones de

conmutación de los campos implican relaciones de conmutación entre los operadores de

aniquilación y creación.

Las relaciones de conmutación de los campos son equivalentes a

Con el resto de conmutadores anulándose.

Hamiltoniano

Usando el momento , tenemos

Que significa que ∫ coincide con una cantidad conservada calculada

mediante el teorema de Noether.

Queremos ahora convertir el Hamiltoniano en un operador. Para ello en primer lugar

echémosle un ojo a

Ahora usamos las definiciones de los espinores y dadas en el tema

anterior, para hacer las siguientes sustituciones

Con lo que ahora podemos escribir

Que usamos ahora para escribir el operador Hamiltoniano

Trabajando sobre él, llegamos a que

El termino implica que nuestro Hamiltoniano no tiene límite inferior, haciendo

que nuestra teoría no tenga sentido.

La pieza que nos ha faltado añadir es el hecho de que las partículas de spin ½ son

fermiones, que siguen la estadística de Fermi-Dirac. Para evitar inconsistencias, como la

que acabamos de encontrar, debemos tomar en cuenta el teorema de espin-estadistica,

que para este caso nos dice que debemos cuantizar estos campos como fermiones.

Cuantización Fermionica

¿Qué hemos de hacer para cuantizar el campo como un fermión? Debemos recordar que

cuando cuantizamos el campo escalar, las partículas resultantes obedecían la estadística

bosonica porque los operadores de creación y aniquilación satisfacían las relaciones de

conmutación

Para tener estados que obedezcan la estadística fermionica, necesitamos relaciones de

anticonmutación

Seguimos pudiendo desarrollar los campos en términos de los operadores de creación y

aniquilación, pero ahora lo que tenemos es que

Con el resto de los anticonmutadores anulándose.

Los cálculos del Hamiltoniano son similares a los de antes, pero esta vez obtenemos

Donde el uso de los anticonmutadores ha eliminado el problema del limite inferior.

La Estadistica de Fermi-Dirac

Como en el caso bosonico, definimos el vacío ⟩ de manera que satisfaga.

Aunque y obedezcan relaciones de anticonmutación, el Hamiltoniano obedece

relaciones de conmutación con ellos

Esto significa que, de nuevo, podemos construir los autoestados de energía haciendo

actuar los operadores de creación sobre el vacío para crear partículas y antipartículas.

Por ejemplo, los estados una-particula satisfacen

Los estados dos-partículas ahora satisfacen

Confirmando que las partículas obedecen la estadística de Fermi-Dirac. Tendremos que

tener en cuenta también el principio de exclusión de Pauli ⟩ . Y por ulimo,

si quisiéramos asegurarnos de cuál es el valor del spin de una partícula, podríamos

actuar con el operador momento angular y confirmaríamos que una partícula

estacionaria tiene momento angular ½, tal y como esperábamos.

9. Campos en interacción.

Las teorías libres de campos de las que he hablado hasta ahora son muy especiales:

Podemos determinar su espectro, pero después no ocurre nada interesante. Tienen

excitaciones de partículas, pero esas partículas no interaccionan entre ellas. Ahora

empezaremos a examinar teorías más complicadas que incluyen términos de

interacción, que tomaran la forma de Lagrangianos de orden superior.

Algunas teorías de interacción, de las que hablaremos más adelante, son

La teoría

La teoría escalar de Yukawa

Esta teoría acopla un campo escalar complejo con un campo escalar real .

9.1. La Imagen de Interacción

Volvemos al terreno familiar de la mecánica cuántica con un numero finito de grados de

libertad. En la imagen de Schrödinger, los estados evolucionan como

Mientras que los operadores son independientes del tiempo.

En contraste, en la imagen de Heinsenberg, los estados están fijados y los operadores

cambian en el tiempo

La imagen de interacción es un hibrido de ambas. Dividimos el Hamiltoniano de la

siguiente manera

La dependencia temporal de los operadores está incluida en , mientras que la

dependencia temporal de los estados la gobierna . Aunque esta división es

arbitraria, es útil cuando es resoluble.

Los estados y operadores de la imagen de interacción se denotaran con el subíndice y

vienen dados por

La ultima ecuación también se aplica a , que es dependiente del tiempo. El

Hamiltoniano de interacción en la imagen de interacción es

Y la ecuación de Schrödinger para los estados de la imagen de interacción pueden

derivarse desde la imagen de Schrödinger

De donde obtenemos que

9.1.1. Formula de Dyson

Queremos resolver la ecuación anterior. Escribimos la solución como

Donde es el operador unitario de evolución temporal tal que

y . Entonces la ecuación de Schrödinger de la

imagen de interacción obliga a que

Si fuese una función, podríamos simplemente resolver esto como

Pero se trata de un operador, y la exponencial de un operador se define en términos del

siguiente desarollo

Cuando tratamos de diferenciar esto respecto de , encontramos que el termino

cuadrático nos da

El segundo término tiene buen aspecto, porque nos va a dar una parte de que

necesitamos en el lado derecho de la ecuación, pero el primer termino tiene a en

el lado incorrecto del termino integral, y no podemos conmutarlo porque

[ ] cuando .

La solución nos la da la Formula de Dyson.

Donde T está colocado para dar la ordenación temporal.

Desarrollado la expresión de tenemos

Donde los últimos dos términos realmente son el mismo

Podemos entonces escribir

9.2. Dispersión

Vamos ahora a aplicar la imagen de interacción a la teoría de campos, empezando con el

Hamiltoniano de interacción de la teoría escalar de Yukawa

Al contrario de las teorías explicadas anteriormente, la interaccion no conserva el

número de partículas, permitiendo a las partículas de un tipo cambiar en otras. Para ver

por qué ocurre eso usaremos la imagen de interacción y seguiremos la evolución de un

estado

Donde viene dado por la fórmula de Dyson, que es un desarrollo en potencias

de . Pero contiene operadores de creación y aniquilación para cada tipo de

partículas. Concretamente

Este operador puede crear o destruir partículas . Las llamaremos

mesones

Este operador puede destruir partículas mediante , y crear

antipartículas mediante . Llamaremos a estas partículas nucleones.

Este operador puede crear nucleones mediante y destruir

antinucleones mediante .

Realmente los nucleones son partículas de spin ½ y no aparecen al cuantizar un campo

escalar, pero aun así utilizaremos la teoría de Yukawa como modelo de juguete para

tratar nucleones en interacción con mesones.

Es importante recordar que se conserva en presencia de . A primer

orden de teoría de perturbaciones encontramos términos en como . Esto

destruye un mesón, produciendo un par nucleón- antinucleón. Contribuirá al

decaimiento de mesones .

A segundo orden de perturbación, encontramos términos más complicados en ,

por ejemplo ( . Este término da contribuciones a los procesos de

dispersión . A lo largo del resto de esta sección, calcularemos las

amplitudes cuánticas de estos procesos.

Para ello en primer lugar supondremos que los estados iniciales y finales son

autoestados de la teoría libre. Esto significa que tomamos un estado inicial ⟩ en

, y un estado final ⟩ en , que sean autoestados del Hamiltoniano libre

.

9.2.1. Decaimiento de Mesones

Consideremos los estados normalizados

El estado inicial contiene un único mesón de momento ; el estado final contiene un par

nucleón – antinucleón de momentos y . Podemos calcular las amplitudes para el

decaimiento del mesón en el par. A primer ordne de esto es

En primer lugar desarrollamos . La parte convertirá ⟩ en algo

proporcional a ⟩, mientras que la parte de lo convertirá en un estado de dos

mesones. Pero el estado de dos mesones no tendrá solapamiento con ⟨ , y nada en los

operadores y cambiará eso. Entonces tenemos

Donde, en la segunda línea, hemos conmutado tras utilizando una función delta

que elimina la integral en . De forma similar desarrollamos

y . Para conseguir un solapamiento no nulo con ⟨ , solo contribuyen y

, porque son quienes crean el nucleón y el antinucleón de ⟩ . Entonces tenemos

La función delta limita los posibles decaimientos a aquellos casos donde . Más

adelante trataremos estas amplitudes cuánticas de un modo más físico, como el periodo

de desintegración de los mesones.

9.3. Teorema de Wick

De la fórmula de Dyson queremos calcular cantidades como ⟨ ⟩,

donde ⟩ y ⟩ son autoestados de la teoría libre. El ordenamiento de los operadores

está fijado por De todas maneras, dado que contiene operadores de creación y

aniquilación, empezaremos por colocarlos en el lugar que más conveniente nos sea

dentro de la ecuación. El teorema de Wick nos dirá como ir de productos ordenados por

temporalmente a productos normalmente ordenados.

Consideremos el campo escalar real que descomponemos en la imagen de Heisenberg

como

Donde

Entonces, eligiendo , tenemos

Donde la última línea está normalmente ordenada, y hemos sacado un factor

[ ], que es el propagador que habíamos definido en el capítulo sobre

el campo libre. Entonces, para tenemos

Y para , calculando análogamente

Poniéndolos juntos, obtenemos la expresión

Donde es el propagador de Feynman, para el que tenemos la representación

integral

Definimos ahora que la contracción de un par de campos en una sucesión de operadores

signifique reemplaza esos operadores por el propagador de

Feynman, dejando el resto de operadores intactos.

De forma similar, para el campo escalar complejo tenemos

Y definimos la contracción como

Teorema de Wick

Para cualquier colección de campos , etc… tenemos

Todas las contracciones posibles.

Por ejemplo, para tenemos

9.3.1. Dispersión de Nucleones

Fijémonos en la dispersión . Tenemos los estados iniciales y finales

Podemos fijarnos en el desarrollo de ⟨ ⟩. De hecho, lo que queremos calcular es

⟨ ⟩, dado que las situaciones sin dispersión no nos interesan. A orden

tenemos el término

Ahora, usando el teorema de Wick, vemos que hay una parte de la fila de operadores

que tiene el aspecto de

Que contribuirá a la dispersión, porque los dos campos aniquilan partículas

mientras que los dos campos crean partículas . Cualquier otra forma de ordenar

estos dos campos dará contribución nula.

Esto significa que tenemos

Donde, para alcanzar la tercera línea, hemos utilizado que

Ahora insertaremos esto en la ecuación

Para obtener la expresión de ⟨ ⟩ a orden

Trabajando sobre ella obtenemos

Y utilizamos las funciones delta para resolver la integral en

Y dado que el denominador nunca se hace cero, podemos prescindir de los términos ,

quedándonos

Más adelante veremos otra manera, mucho más simple, de alcanzar este resultado,

utilizando los diagramas de Feynman.

9.4. Diagramas de Feynman

Calcular amplitudes de dispersión utilizando el teorema de Wick es un proceso tedioso,

pero por suerte tenemos otro camino. Este camino implica realizar una serie de dibujos,

que representan el desarrollo de ⟨ ⟩, y se conocen como Diagramas de Feynman.

El objetivo real es calcular ⟨ ⟩, dado que no nos interesan los procesos donde

no existe dispersión. Los términos del desarrollo perturbativo pueden representarse de la

manera siguiente:

Dibuja una línea exterior por cada partícula en el estado inicial ⟩ y cada

partícula en el estado final ⟩. Marcaremos los mesones con líneas

punteadas, y los nucleones con líneas sólidas. Asigna un momento dirigido

a cada línea. Añade una flecha a las líneas sólidas para denotar su carga;

escogeremos una línea acercándose al estado inicial para , y alejándose

para .

Une las líneas exteriores con vértices trivalentes

Cada uno de esos diagramas está en correspondencia 1-1 con los términos del desarrollo

de ⟨ ⟩

9.4.1. Reglas de Feynman

A cada uno de estos diagramas le asignamos un número, usando las reglas de Feynman.

Añade un momento a cada línea interior

Para cada vértice, escribe un factor como el que aparece a continuación.

Donde ∑ es la suma de todo el momento que fluye hacia el vértice.

Para cada línea interior punteada, correspondiente a una particula con

momento , escribimos un factor como el que hay a continuación. Para

líneas solidas interiores escribimos un factor igual, con reemplazada por

.

9.5. Ejemplos de Amplitudes de Dispersión

Ahora aplicaremos las reglas de Feynman a la medida de amplitudes para varios

procesos.

Empezaremos recalculando la amplitud de dispersión de nucleones. Para ello dibujamos

los dos diagramas más simples que contribuyen al proceso.

Aplicando las reglas de Feynman a estos diagramas, obtenemos

Que coincide con el cálculo que habíamos llevado a cabo antes. La función delta viene

de la conservación del cuadrimomento que aparece por la invariancia traslacional, y es

común a todos los elementos de la matriz S. Definiremos la amplitud de la

siguiente manera

Donde es la suma de los cuadrimomentos iniciales, y la de los finales, y el factor

al principio es una convención utilizada para que en el límite no relativista coincida con

la mecánica cuántica. Ahora podemos refinar las reglas de Feynman para calcular la

amplitud en si misma:

Dibuja todos los diagramas posibles e impón la conservación del

cuadrimomento a cada vértice.

Escribe un factor en cada vertice

Para cada línea interior, escribe un propagador

Integra sobre el momento fluyendo sobre cada loop ∫

La última regla es innecesaria para los diagramas que hemos visto hasta ahora, de orden

árbol. En estos casos es suficiente con imponer la conservación del momento en cada

vértice, pero no son los únicos casos posibles.

Al irnos a orden superior encontramos diagramas del tipo

Donde no es suficiente con esa condición.

Podemos calcular ahora la amplitud de la dispersión nucleón-mesón. En este proceso

un par nucleón-antinucleon se aniquila dando lugar a un par de mesones. Los diagramas

de Feynman más simples posibles son

Donde la partícula virtual es ahora un nucleón en lugar de un mesón.

Para la dispersión de un nucleón y un antinucleón tenemos los diagramas

Y la amplitud nos queda

Donde se puede ver que la dependencia del momento en el segundo término es diferente

de la de la dispersión nucleón-nucleón, reflejando la diferencia en el diagrama de

Feynman que contribuye al proceso.

9.5.1. Variables de Mandelstam

En las amplitudes mostradas antes se puede ver que muchas veces aparecen las mismas

combinaciones de momentos en los denominadores. Esto es una constante, sobre todo al

tratar procesos en los que se produce el intercambio de una sola partícula. Existen unos

nombres estándar para varias sumas y restas de momento, se conocen como variables

de Mandelstam.

Donde, como en los ejemplos, y son los momentos de las dos partículas iniciales,

y y los de las finales. Podemos definir estas variables independientemente de que

las partículas involucradas en la dispersión sean las mismas o sean diferentes. Para

hacernos una idea del significado de estas variables, asumiremos ahora que las cuatro

partículas son del mismo tipo.

Nos colocamos en el sistema de centro de masas. En ese caso las dos partículas iniciales

tienen el cuadrimomento

Las partículas entonces se desvían un ángulo y se alejan con un momento

De las definiciones anteriores, tenemos que

La variables y miden el intercambio de momento entre las partículas, mientras que

la variable mide la energía total de la colisión. La amplitud del intercambio de una

única partícula puede escribirse de forma muy simple en términos de las variables de

Mandelstam.

Por ejemplo, para la dispersión nucleón-nucleón tenemos

Para la dispersión nucleón-antinucleón

Se puede decir que el primer caso involucra diagramas canal t y canal u, mientras que

el segundo hace lo propio con diagramas canal t y canal s.

9.5.2. El Potencial de Yukawa

Hasta ahora hemos calculado amplitudes cuánticas para varios procesos de dispersión,

pero estas cantidades son un tanto abstractas. Más adelante trabajaremos sobre cómo

transformar estas amplitudes en cantidades medibles, tales como la sección eficaz o el

periodo de desintegración de partículas inestables. En esta sección mostraremos como

pasar de la amplitud de la dispersión de nucleones a algo más familiar: un potencial, o

una fuerza, entre partículas.

Supongamos que tenemos una función delta fijada como fuente de un campo real

escalar , que persiste en el tiempo. ¿Cómo cambia el campo en el espacio? Para

responder a esto empezaremos trabajando con la ecuación de Klein-Gordon.

Podemos resolverla usando transformadas de Fourier

Introducir esto en la ecuación anterior nos dice que

Y nos da la solución

Ahora resolveremos esta integral, trabajando en coordenadas polares, y escribiendo

Calculamos la última integral cerrando un contorno en el semiplano superior ,

tomando el polo en . Nos queda

El campo se desvanece exponencialmente rápido en distancias de , que es la

longitud de onda Compton de los mesones.

¿Qué tiene esto que ver con la fuerza entre partículas? Podemos hacer un cálculo

similar al anterior en la electrostática, donde una partícula cargada actúa como función

delta fuente de un potencial gauge , cuya solución es .

¿Podemos dar la misma interpretación al campo escalar? ¿Existe un límite clásico para

la teoría escalar de Yukawa donde las partículas actúan como funciones delta fuentes

de ? La respuesta es fundamentalmente si mientras nos mantengamos dentro del límite

. Pero la manera correcta de describir el potencial que sienten las partículas

no es hablar del campo clásico, sino trabajar directamente con las amplitudes cuánticas.

Compararemos la amplitud de dispersión de nucleones con la correspondiente amplitud

en mecánica cuántica no relativista para dos partículas interaccionando a través de un

potencial. Para ello lo primero que tenemos que hacer es tomar el límite no relativista de

la siguiente relación de la amplitud antes obtenida para la dispersión de nucleones. Esto

significa tomar el límite cuando lo que implica, por la conservación del

momento, que . Para este ejemplo particular el límite no afecta la amplitud de

dispersión.

¿Cómo comparamos esto con la dispersión en mecánica cuántica? Consideremos dos

partículas, separadas por una distancia , interactuando a través de un potencial . A

primer orden de teoría de perturbaciones tenemos

Hay un factor relativo de que aparece al comparar la amplitud de teoría cuántica

de campos con ⟨ ⟩, que puede atribuirse a la normalización relativista de los

estados y . Incluyendo este factor, e igualando las expresiones de las dos

amplitudes tenemos

Donde hemos introducido el parámetro adimensional . Podemos invertir esto

de forma trivial para obtener

Que es exactamente la integral que resolvimos para la teoría clásica. Obtenemos:

Esta es el potencial de Yukawa. La fuerza se debilita con , la longitud de onda

Compton de la partícula intercambiada. El signo menos indica que el potencial es

atractivo.

La teoría cuántica de campos da una nueva perspectiva de la naturaleza de la fuerza

entre partículas. En lugar de ser un concepto fundamental, la fuerza surge del

intercambio virtual de otras partículas, mesones en este caso. Más adelante veremos

como la fuerza de Coulomb aparece en la teoría cuántica de campos debido al

intercambio de fotones virtuales.

9.5.3. Diagramas Conectados y Diagramas Cortados

Hemos visto que podemos calcular amplitudes de dispersión escribiendo todos los

diagramas de Feynman y asignándoles integrales usando las reglas de Feynman. Pero

hay algunas advertencias acerca de cuáles escribir y cuáles no, relacionadas con la

asunción de que los estados iniciales y finales son autoestados de la teoría libre. Son las

siguientes:

Solo consideraremos diagramas de Feynman conectados, donde cada parte

del diagrama está conectado al menos con una línea exterior. No

consideraremos diagramas como el que se ve a continuación. Esto se debe a

que el vacío de la teoría libre no es el vacío auténtico de la teoría de

interacciones.

No consideraremos diagramas con loops en las líneas externas, como el que

se ve a continuación. Esto está relacionado con el hecho de que los estados

partícula de la teoría libre no son los mismos que los de la teoría de

interacciones.

9.6. Secciones eficaces y Decaimientos

Hasta ahora hemos aprendido a calcular amplitudes cuánticas para partículas

desintegrándose o en dispersión. Como suele ser habitual en teoría cuántica, las

probabilidades de que ocurran cosas son el cuadrado del módulo de las amplitudes

cuánticas.

9.6.1. Regla de Oro de Fermi

En primer lugar derivaremos la regla de oro de Fermi de la fórmula de Dyson. Para dos

autoestados ⟩ y ⟩, con , tenemos a primer orden de interacción

Donde . Esto nos da una probabilidad de transición de ⟩ a ⟩ en el

tiempo de

La función entre parentesis, para un fijado es

Podemos ver que para un tiempo , la mayoría de transiciones ocurren entre estados de

energía separados por . Y cuando la función de la figura se acerca a

una delta. Para encontrar una normalización, calculamos

Consideramos ahora una transición a un conjunto de estados con densidad . En el

límite donde , obtenemos la probabilidad de transición

Que nos da una probabilidad de transición constante por unidad de tiempo para estados

de energías similares

Supongamos que ahora queremos calcular la amplitud de transición de un estado ⟩ en

a un estado ⟩ en . Entonces tendríamos

Ahora, al calcular el cuadrado de la amplitud para ver la probabilidad nos

encontraríamos con el problema de calcular el cuadrado de una función delta.

Dándonos cuenta de que el infinito extra aparece porque es la probabilidad de que

la transición ocurra en un tiempo infinito. Podemos reescribir la función delta como

Donde es una abreviatura de . Podemos ahora dividir entre para obtener la

probabilidad de transición por unidad de tiempo

Que, tras integrar sobre la densidad de estados finales, nos trae la regla de oro de Fermi.

La razón para haber hecho esto, es que en nuestra teoría de campos calculamos

amplitudes de esta manera, y ahora podemos reinterpretar los cuadrados de las

funciones como elementos de volumen de espacio tiempo.

9.6.2. Decaimientos

Ahora nos fijaremos en la probabilidad de que una única partícula ⟩ de momento se

desintegre en cierto número de partículas ⟩ con momentos y momento total

∑ .

Nuestros estados siguen formula de normalización relativista

Donde sustituimos la por el volumen del tres-espacio.

De forma similar

Si colocamos nuestra partícula inicial en reposo, tenemos la probabilidad de

desintegración

Donde, de nuevo, hemos intercambiado una de las funciones delta por el elemento de

volumen del espacio tiempo

Ahora podemos dividir entre para obtener la función de transición por unidad de

tiempo. Pero aun tendremos que preocuparnos de sumar sobre todos los estados finales.

Esto lo haremos en dos pasos. El primero será integrar sobre todos los momentos

posibles de las partículas finales

El resultado es una expresión para la densidad de estados finales dada por la cantidad

invariante Lorentz

El segundo paso es sumar sobre todos los estados finales con diferente número (y

posiblemente tipo) de partículas. Esto da una expresión final de probabilidad de

desintegración por unidad de tiempo .

Donde es el reciproco de la vida media .

9.6.3. Secciones Eficaces

Hagamos ahora colisionar dos haces de partículas. Algunas partículas chocarán entre

ellas, y rebotarán. Otras simplemente pasaran de largo. La probabilidad de que

colisionen se conoce como sección eficaz y se denota . Si el flujo incidente se define

como el numero de partículas incidentes por unidad de área y tiempo, entonces el

número total de eventos de dispersión por unidad de tiempo viene dado por

Nuestra intención es calcular a partir de la teoría cuántica de campos, o más

concretamente , la sección eficaz diferencial, que es la probabilidad de que un

proceso de dispersión dado ocurra dentro de un ángulo sólido. Más concretamente

Donde hemos usado la expresión de la probabilidad por unidad de tiempo que

calculamos antes, y y son las energías de las partículas incidentes. Ahora nos

falta una expresión para la unidad de flujo. Por simplicidad nos colocaremos en el

sistema de centro de masas. Hemos estado considerando una única particula por unidad

de volumen espacial , lo que significa que el flujo viene dado en función de las 3-

velocidades como . Tenemos entonces

Podemos escribirlo en función de los módulos simplemente dándonos cuenta de que la

3-velocidad .

La ecuación que hemos obtenido será nuestra relación definitiva entre la sección eficaz

diferencial y las matrices S.

9.7. Funciones de Green

Hasta ahora hemos aprendido a calcular amplitudes de dispersión, pero quedan aún

muchas preguntas que queremos hacernos en el marco de la teoría cuántica de campos y

que no están directamente relacionadas con experimentos de dispersión. Para ello

necesitaremos calcular objetos elementales conocidos como funciones de correlación.

En esta sección las definiremos y explicaremos como calcularlas usando diagramas de

Feynman.

Denotamos el vacío auténtico de la teoría de interacción como ⟩. Con

adecuadamente normalizado tenemos

Y ⟨ ⟩ . . Definimos también

Donde es en la imagen de Heinseberg para la teoría completa, en lugar de la

teoría de interacción con la que hemos trabajado hasta ahora. Las funciones son las

funciones de correlación, o funciones de Green. Existen un buen número de formas de

trabajar con estos objetos, que encajan bien entre ellas. Empezaremos calculándolas

usando diagramas de Feynman.

Utilizamos la notación , y utilizamos para denotar el campo en la

imagen de Heinsemberg y en la imagen de interacción. Entonces

Donde los operadores en el lado derecho están evaluados en el vacío de la teoría libre.

9.7.1. Diagramas conectados y Burbujas de Vacío

Dado que las cantidades

Con cosas con las que sabemos trabajar, nuestro objetivo de calcular las funciones de

correlación está más cerca. Pero ¿Qué podemos dividir una entre la otra? Realmente

podemos, y la interpretación es sencilla.

Para este desarrollo trabajaremos con la teoría . Dado que no va a haber confusión

entre los diferentes tipos de línea de los diagramas de Feynman, dibujaremos las

partículas como líneas sólidas.

Escribimos el desarrollo de ⟨ ⟩ en diagramas.

Estos diagramas se conocen como burbujas de vacío. Los factores combinatorios

asociados a cada diagrama son tales que la serie completa suma una exponencial

Así que tenemos que la amplitud de la evolución del vacío de la teoría libre en si mismo

tiene forma de exponencial de la suma de las burbujas de vacío distintas. Para las

funciones de correlación genéricas ocurre algo parecido.

Donde hablar de diagramas conectados quiere decir que cada parte del diagrama tiene

que estar conectados al menos a una de las líneas exteriores. Además con esto tenemos

que al dividirlo entre ⟨ ⟩ nos queda que solo nos interesan los diagramas de

Feynman conectados, no tenemos que preocuparnos por las burbujas de vacío.

Uniendo este resultado con la definición anterior de las funciones de Green tenemos que

Podemos calcular dichas funciones simplemente sumando sobre los diagramas de

Feynman conectados.

10. Electrodinámica Cuántica y diagramas de Feyman.

10.1. Electrodinámica Cuántica. La electrodinámica cuántica es una descripción detallada de la interacción entre fotones

y partículas cargadas de tipo fermiónico. La teoría cuántica comparte ciertos rasgos con

la descripción clásica. De acuerdo con la descripción de la óptica clásica la luz viaja

sobre todos los caminos permitidos, y su interferencia determina los frentes de onda que

se propagan de acuerdo con el principio de Fermat. Similarmente, en la descripción

cuántica de los fotones (y los fermiones), estos pasan por cada camino posible permitido

por aberturas o sistemas ópticos. En ambos casos el observador detecta simplemente el

resultado matemático de la superposición de todas las ondas consideradas a lo largo de

integrales de línea. Una diferencia es que en la electrodinámica la velocidad efectiva de

un fotón puede superar la velocidad de la luz en promedio.

Además QED fue la primera teoría cuántica del campo en la cual las dificultades para

construir una descripción completa de campos y de creación y aniquilación de partículas

cuánticas, fueron resueltas satisfactoriamente.

Formalismo

Diagrama de Feynman ilustrando la interacción entre dos electrones producida mediante

el intercambio de un fotón.

Matemáticamente, podemos decir que la electrodinámica cuántica tiene la estructura de

una teoría de gauge abeliana con U(1) el grupo de gauge. El campo de gauge que media

la interacción entre campos de espín -1/2 con carga es el campo electromagnético.

La evolución temporal de un sistema de partículas cargadas y fotones puede ser

calculada mediante un cálculo perturbativo. En concreto la comparación con los

experimentos realizables frecuentemente requiere el cálculo de los elementos de la

matriz S que permiten encontrar las secciones eficaces de dispersión para partícula que

puede ser comparada con los resultados de los experimentos.

La electrodinámica cuántica reduce este tipo de cálculos a un desarrollo perturbativo en

serie de potencias que permite encontrar con la precisión deseada esas secciones

eficaces. Cada uno de los términos perturbativos admite una representación gráfica

conocida como diagrama de Feynman. De hecho, la electrodinámica cuántica fue

históricamente la primera teoría donde se usaron diagramas de Feynman como ayuda en

el cálculo perturbativo. La forma de cada uno de los términos perturbativos y, por tanto,

la representación gráfica asociada depende de la forma del lagrangiano que caracteriza

dicha teoría (ver más adelante).

La invarianza gauge local U(1)

Es interesante observar como se puede hallar el lagrangiano de la QED como simple

exigencia de que el lagrangiano de un fermión libre con carga eléctrica no nula sea

invariante gauge local. Sea el lagrangiano del fermión libre:

En otras palabras, queremos que sea invariante bajo una transformación local U(1)

de manera que el campo cambie como:

En ese caso, la derivada covariante y el gauge serán:

Con todo esto, nos queda el lagrangiano de la electrodinámica cuántica:

Adecuación experimental

Es importante señalar que la electrodinámica cuántica no da valores concretos de lo que

sucedería en un experimento concreto, sino sólo probabilidades de que suceda un

determinado tipo de situación. Es por eso, que los experimentos usan un número

relativamente grande de partículas que son dispersadas estadísticamente de acuerdo con

las probabilidades predichas por la teoría. A partir de la distribución de partículas

dispersadas puede medirse la sección eficaz comparable con las predicciones numéricas

de la teoría.

Las predicciones de la electrodinámica cuántica han sido confirmadas por los

experimentos hasta un nivel insólito de precisión: habitualmente se tienen experimentos

que coinciden en 12 cifras decimales correctas con las predicciones de la teoría. Esto

hace de la electrodinámica cuántica la teoría más precisa construida por el hombre.

Formulación matemática

La dinámica y propiedades básicas de una teoría de campo depende de la forma

seleccionada para el lagrangiano. La selección de lagrangiano depende de las simetrías

del grupo de gauge y del hecho de que la teoría describa adecuadamente la interacción

entre fermiones cargados. En una teoría que describa campos fermiónicos interactuando

mediante un campo de gauge bosónico asociado a partículas sin masa (fotones) cuyo

grupo de gauge es conmutativo, el lagrangiano de partida puede tomarse como:

Donde el campo ferminónico y su adjunto de Dirac son los campos que representan

partículas de carga eléctrica, específicamente el electrón y los campos del positrón

representados como espinor de Dirac. La parte del lagrangiano que contiene el tensor de

campo electromagnético describe la evolución libre del campo electromagnético,

mientras que la ecuación de Dirac con la derivada covariante de gauge describe la

evolución libre de los campos del electrón y del positrón así como su interacción con el

campo electromagnético.

Ecuaciones de movimiento

Las ecuaciones de "movimiento" o ecuaciones de evolución temporal de la QED pueden

obtenerse mediante las ecuaciones de Euler-Lagrange del lagrangiano de la teoría.

Insertando ese lagrangiano en las ecuaciones de Euler-Lagrange se obtiene la ecuación

de evolución temporal de la teoría:

Colocando los dos términos dentro de la ecuación de Euler-Lagrange resulta finalmente

la siguiente ecuación de evolución para el campo fermiónico:

El miembro de la izquierda es precisamente la ecuación de Dirac y el término de la

derecha representa la interacción con el campo electromagnético.

Las mismas ecuaciones de Euler-Lagrange, aplicadas ahora al campo Aμ, permiten

encontrar las ecuaciones de evolución del campo electromagnético:

Y la ecuación de evolución del campo electromagnético resulta finalmente:

Donde el segundo miembro puede ser interpretado como la densidad de corriente

asociada al campo fermiónico.

Reglas de Feynman

Para dar cuenta de todos los efectos cuánticos, es necesario reemplazar las componentes

de los campos en las anteriores ecuaciones diferenciales por operadores autoadjuntos

interpretables como genuinos operadores cuánticos. En general eso lleva a unos

sistemas de ecuaciones que no sabemos como integrar exactamente, pero que admiten

un tratamiento perturbativo, descomponiendo el operador de evolución temporal

en series de potencias o serie perturbativa.

El cálculo de cada término de la serie anterior puede realizarse de manera casi

automática con la ayuda de los llamados diagramas de Feynman, a los que se puede

asociar unas reglas de Feynman. La precisión del cálculo depende de cuantos términos

se consideran en la serie perturbativa anterior.

Renormalización

Un serio problema con las reglas de Feynman es que tal que fueron establecidas por

primera vez conducen a diagramas y términos divergentes en la serie perturbativa, es

decir, términos no finitos que echan a perder el cálculo de los términos finitos.

Obviamente todos los resultados físicos son finitos y esos términos divergentes del

cálculo no son observables en la realidad. La renormalización es un conjunto de reglas

adicionales que interpretan qué relación existe entre los términos calculados y los

términos medibles en la realidad y generan reglas adicionales que permiten

"normalizar" los cálculos y garantizar que se producen resultados numéricos finitos

comparables con la realidad mediante experimento.

Es conocido que el hecho de que una teoría cuántica sea una teoría de campo de gauge

le confiere la propiedad de ser renormalizable, en el sentido de que existe un conjunto

de reglas adicionales que permiten eliminar términos divergentes no observables y dar

lugar a resultados finitos.

10.2. Diagramas de Feyman.

Un diagrama de Feynman, en física, es un dispositivo de conteo para realizar cálculos

en la teoría cuántica de campos, inventada por el físico estadounidense Richard

Feynman. El problema de calcular secciones eficaces de dispersión en física de

partículas se reduce a sumar sobre las amplitudes de todos los estados intermedios

posibles, en lo qué se conoce como expansión perturbativa. Estos estados se pueden

representar por los diagramas de Feynman, que son más fáciles de no perder de vista en,

con frecuencia, cálculos tortuosos. Feynman mostró cómo calcular las amplitudes del

diagrama usando, las así llamadas, reglas de Feynman, que se pueden derivar del

lagrangiano subyacente al sistema. Cada línea interna corresponde a un factor del

propagador de la partícula virtual correspondiente; cada vértice donde las líneas se

reúnen da un factor derivado de un término de interacción en el lagrangiano, y las líneas

entrantes y salientes determinan restricciones en la energía, el momento y el espín.

Además de su valor como técnica matemática, los diagramas de Feynman proporcionan

penetración física profunda a la naturaleza de las interacciones de las partículas. Las

partículas obran recíprocamente en cada modo posible; de hecho, la partícula "virtual"

intermediaria se puede propagar más rápidamente que la luz.1 La probabilidad de cada

resultado entonces es obtenida sumando sobre todas tales posibilidades. Esto se liga a la

formulación integral funcional de la mecánica cuántica, también inventada por Feynman

El uso ingenuo de tales cálculos produce a menudo diagramas con amplitudes infinitas,

lo que es intolerable en una teoría física. El problema es que las auto-interacciones de

las partículas han sido ignoradas erróneamente. La técnica de la renormalización,

iniciada por Feynman, Schwinger, y Tomonaga, compensa este efecto y elimina los

términos infinitos molestos. Después de realizada la renormalización, los cálculos de

diagramas de Feynman emparejan a menudo resultados experimentales con exactitud

muy buena. El diagrama de Feynman y los métodos de la integral de trayectorias

también se utilizan en la mecánica estadística.

Murray Gell-Mann se refirió siempre a los diagramas de Feynman como diagramas de

Stückelberg, por un físico suizo, Ernst Stückelberg, que ideó una notación similar.

Interpretación

Los diagramas de Feynman son realmente una manera gráfica de no perder de vista los

índices de Witt como la notación gráfica de Penrose para los índices en álgebra

multilineal. Hay varios diversos tipos para los índices, uno para cada campo (éste

depende de cómo se agrupan los campos; por ejemplo, si el campo del quark "up" y el

campo del quark "down" se trata como campos diversos, entonces habría diverso tipo

asignado a ambos pero si se tratan como solo campo de varios componentes con

"sabores", entonces sería solamente un tipo) los bordes, (es decir los propagadores) son

tensores de rango (2,0) en la notación de deWitt (es decir con dos índices

contravariantes y ninguno covariante), mientras que los vértices de grado n son tensores

covariantes de rango n que son totalmente simétricos para todos los índices bosónicos

del mismo tipo y totalmente antisimétricos para todos los índices fermiónicos del

mismo tipo y la contracción de un propagador con un tensor covariante de rango n es

indicado por un borde incidente a un vértice (no hay ambigüedad con cual índice

contraer porque los vértices corresponden a los tensores totalmente simétricos). Los

vértices externos corresponden a los índices contravariantes no contraídos.

Una derivación de las reglas de Feynman que usa integral funcional gaussiana se da en

el artículo integral funcional. Cada diagrama de Feynman no tiene una interpretación

física en sí mismo. Es solamente la suma infinita sobre todos los diagramas de Feynman

posibles lo que da resultados físicos.

Desafortunadamente, esta suma infinita es solamente asintóticamente convergente.

Los experimentos de física de altas energías involucran habitualmente colisiones de

partículas a altas velocidades. La teoría cuántica de campos permite calcular los detalles

de dichas colisiones, a partir de la probabilidad M de que estas ocurran:

,

expresión que relaciona la probabilidad de encontrar las partículas β tras la colisión,

partiendo de las partículas α, en términos de S, la llamada matriz de scattering: un

operador que recoge la evolución del sistema durante el experimento. Este operador

puede obtenerse mediante un desarrollo perturbativo, en términos del hamiltoniano de

interacción:

,

donde se ha escrito explícitamente la constante de acoplo g. Este desarrollo supone que

la interacción es débil o pequeña, frente a la probabilidad de no interacción.

Los diagramas (o reglas) de Feynman son una técnica para calcular dicha probabilidad

de manera gráfica. Estos diagramas representan todos las posibles «versiones»

subyacentes a un proceso dado: la emisión y absorción de un número cualquiera de

partículas virtuales por parte de las partículas en interacción. Estos procesos virtuales

ocurren debido a la incertidumbre inherente a una teoría cuántica. La energía necesaria

para la aparición de estas partículas virtuales proviene de la relación de incertidumbre

entre energía y tiempo:

,

de modo que estas «existen» por muy poco tiempo. En realidad, las partículas virtuales

son sólo una abstracción y no pueden detectarse. El proceso físico real (la colisión) se

entiende como una suma de todos estos procesos virtuales. Por ejemplo, en el estudio de

la dispersión Compton de un electrón por un fotón en electrodinámica cuántica (QED),

la amplitud cuántica viene dada por:

En estos diagramas, las líneas curvadas son fotones y las líneas rectas, electrones. El

estado inicial y final son las líneas externas, iguales en todos los diagramas, puesto que

todos corresponden al mismo experimento. La propagación de partículas se representa

mediante líneas internas, y la emisión o absorción de un fotón por un electrón mediante

vértices. Utilizando estos elementos, pueden escribirse todos los (infinitos) diagramas

que contribuyen a este experimento.

La exactitud del cálculo aumenta con el número de vértices, que es igual a la potencia

de la constante de acoplo en el desarrollo perturbativo. Así, los dos primeros diagramas

del miembro derecho son proporcionales a e2 y el siguiente, a e

4, donde e, la carga del

electrón, es la constante de acoplo en QED. Las distintas «versiones» de la dispersión

Compton pueden leerse «cronológicamente» en cada diagrama del miembro derecho de

izquierda a derecha: en el primer diagrama, el electrón absorbe el fotón incidente y más

tarde emite el fotón saliente; en el segundo, el electrón emite el fotón final y más tarde

absorbe el fotón inicial; etc.

Los diagramas de Feynman son más que una técnica de cálculo, sino que constituyen la

«piedra angular de la física de partículas». Se consideran tan o más relevantes incluso

que la propia teoría cuántica de campos de la que surgen, pues en ellos se reflejan los

principios físicos subyacentes más importantes, y son la herramienta básica para

analizar las colisiones relativistas. Sin embargo, existen numerosos fenómenos en teoría

cuántica de campos que no pueden ser analizados como una perturbación, como el

confinamiento en QCD, o las soluciones no perturbativas.