jueves

DIEZ DIMENSIONES


Si ya es difícil la aceptación de un espacio tetradimensional, o sea, las tres dimensiones del entorno en que nos movemos, más el tiempo, cuando se habla de la existencia de diez o más dimensiones, aparece una notable incredulidad. Pero la teoría de las supercuerdas necesita diez dimensiones, y más, para describir nuestro universo. La razón no es simple, pero es así. Cuando se teoriza la existencia de seis dimensiones adicionales, el físico teórico está pensando en una diminuta cuerda que se encuentra compactada y enrollada dentro de un pequeñísimo espacio de 10-33 cm, lo que, por su tamaño, hace muy difícil poder detectar las dimensiones de dicha cuerda. Pero fundamentos en la naturaleza, como para pensar que puede darse esa condición, existen. 

La idea de las dimensiones extras para un universo considerado tetradimensional, no es nueva, sino que se extrae de la teoría de Theodoro Kaluza y de Oskar Klein. Este mecanismo es reconocido por los físicos como teoría o compactificación de Kaluza-Klein. Kaluza, que, en su trabajo original, demostraba que comenzando desde la relatividad general con un espaciotiempo pentadimensional, al situarse encima de un círculo una de las dimensiones, se llegaba a las cuatro dimensiones relativista más el electromagnetismo. Ello ocurría debido a que se trataba de una teoría gauge U (1), en que U (1) corresponde al grupo de rotaciones alrededor de un círculo. Esto se puede considerar cuando se asume que el electrón tiene un grado de libertad que corresponde a un punto del círculo y que ese punto es libre de variar su posición en éste, de la misma forma como lo hacemos cuando nos movemos alrededor del espaciotiempo. Para el fotón, se da por entendido que lo contiene la teoría y que el electrón se mueve en función de las ecuaciones de Maxwell sobre el electromagnetismo.

El mecanismo de Kaluza-Klein da simplemente una explicación geométrica para este círculo, en que la quinta dimensión se da al enrizarse ese círculo hacia arriba. Hemos hecho una descripción bastante simplificada de lo que consiste la presencia de una quinta dimensión, pero para hacerlo así, hemos considerado también el diminuto tamaño del espacio en que se teoriza el mecanismo, pese a que reconocemos las profundas implicancias que tiene para la física. 

¿Pero cómo podríamos saber si existen o hubo dimensiones adicionales? Por ahora, sólo podemos intuirlas y estimarlas a través de complejos estudios matemáticos y esperar si alguna vez se toma la decisión de construir un acelerador muchísimo más poderoso que los que hoy se encuentran en operaciones, e incluso de mayor capacidad que el SSC (Super-conducting Super Collider) que estaba destinado a encontrar casi todas las partículas que nunca hemos visto, pero su vida fue muy corta. Apenas se levantó un poco del suelo, el proyecto cayó estrepitosamente como consecuencia de un "no" del Congreso norteamericano. ¿Razón? Su inmenso coste, miles de millones de dólares, el equivalente a proveer alimentación básica a millones de desposeídos del mundo. Sin embargo, sabemos por la mecánica cuántica que si una dimensión espacial es periódica, el momento de esa dimensión se cuantiza, p = n/R (n = 0, 1, 2, 3…); mientras si la dimensión espacial desaparece, el momento puede adquirir una serie continua de valores. Por otra parte, al disminuir el radio de la dimensión compactada (el círculo se hace muy diminuto), el rango de valores permitidos del momento se hace muy amplio. Así, llegamos a una torre de Kaluza-Klein en cuanto a los estados del momento. 

Si tomamos un círculo con el radio grande y dimensiones no compactificadas, los valores permitidos del momento se sitúan muy cerca unos de otros, llegando a formar una serie continua. Tanto las dimensiones mayores carentes de masa como, asimismo, las másicas pequeñas, se ubican espaciándose en la torre entre pequeñísimos trechos. Esto sería lo que ocasiona que, en la materia sometida para su estudio, en los actuales aceleradores en operaciones sólo se pueda llegar a observar en ella una composición de partículas. En consecuencia, se necesitarían aceleradores de la potencia o mayor que la del frustrado proyecto del SSC, no sólo para descubrir las extradimensiones, sino también algunas masivas partículas ligeras que predicen las teorías, pero que hasta ahora no se han encontrado.

Cuando estudiamos la teoría de Kaluza-Klein, hablamos de dimensiones que se representaban en la línea de un cilindro y, ahora, aquí se supone que vamos a analizar cuerdas con extradimensiones. Cuando Scherk y Schwarz teorizaron sobre la existencia de diminutas cuerdas en la naturaleza, hicieron un descubrimiento notable para el campo de la física teórica. En efecto, las cuerdas tienen una característica única cuando son compactificadas: se enrollan alrededor de una dimensión compacta enrollándose a lo largo de todo el espectro. Una cuerda cerrada se puede enrollar alrededor de periódicas dimensiones en distintas etapas de tiempo. Lo anterior implica, al igual que en la mecánica de Kaluza-Klein, la generación de un momento p = w R (w = 0, 1, 2…), pero con una diferencia sustancial, ya que éste sigue el camino inverso en relación a la dirección del radio de la dimensión compacta, R. De ese modo, la dimensión se compactifica llegando a ser pequeñísima en un cilindro de muy poca densidad. 

Ahora bien, para poder insertar nuestro mundo tetradimensional en otro con seis dimensiones suplementarias, necesitamos conpactificar la teoría de las supercuerdas de diez dimensiones en múltiplos compacto de seis. Se puede pensar que ello se podría realizar con el mecanismo de Kaluza-Klein, como lo hemos descrito arriba, pero los resultados que se obtendrían son de una gran complejidad binaria.

Una fórmula simple podría ser las de colocar las seis dimensiones suplementarias en una cantidad igual de círculos en una protuberancia sexadimensional, pero ello implicaría supersimetrías poco viables, pese a que se considera que éstas podrían existir en nuestro mundo tetradimensional en una escala de energía superior a un TeV. Este es un tema que ha centrado la investigación en los aceleradores de más alta energía del mundo. Por otra parte, la preservación de una cantidad mínima de supersimetría equivalente a N = 1 en cuatro dimensiones, requiere la compactificación de un múltiplo especial de seis, conocido como de Calabi-Yau.

Las características del múltiplo de Calabi-Yau puede tener implicaciones importantes para la física de bajas energías, como en el caso de las distintas clases de partículas observadas en cuanto a sus respectivas masas, los cuantos y su origen. Sin embargo, se trata de un campo de investigación bastante complicado, ya que se da la existencia matemática de muchísimos múltiplos de Calabi-Yau y los físicos no han podido encontrar la fórmula para saber cuál de ellos utilizar en muchos de sus trabajos de investigación. 

En ese sentido, al desarrollar los distintos conceptos que se implican en la teoría de las supercuerdas con diferente número de dimensiones suplementarias, se llega a concluir que la tetradimensionalidad está lejos de ser la única geometría de la naturaleza y que en ello la investigación física se encuentra incompleta, por lo menos en los niveles actuales de teorización. Por lo anterior, y al margen de la necesidad de unificar las cuatro fuerzas conocidas que dan la estructura a nuestro mundo, se ha embrionado la esperanza de que la teoría de las supercuerdas sin las perturbaciones estructurales que aún persisten en ella, nos pueda conducir a saber si nuestro universo siempre ha sido tetradimensional o que fluyó de una física con más de cuatro dimensiones que pudo haber existido durante la fase de alta energía del Big Bang, distinta a la física cuatridimensional de baja energía que hoy observamos. En una de esas, se halla un múltiplo de Calabi-Yau que abra el camino.

Un importante trabajo al respecto es el desarrollado por el físico-matemático Andrew Strominger, en el cual ha logrado demostrar que los múltiplos de Calabi-Yau se pueden conectar permanentemente uno con otro en transiciones cunifólicas y movernos en diferentes múltiplos en distintos parámetros de la teoría. 

Esto sugiere que las distintas teorías tetradimensionales que generan los múltiplos de Calabi-Yau, pudiesen ser realmente fases de una única teoría subyacente.

DIMENSIONES OCULTAS I


Una de las características más evidentes de nuestro mundo físico y que prácticamente a nadie le llama la atención es la tridimensionalidad del espacio. En la teoría de la relatividad especial de Einstein, el espacio y el tiempo pasan a estar tan íntimamente entrelazados que Hermann Minkowski consiguió demostrar que, en ella, el tiempo podía considerarse una cuarta dimensión (aunque no sea una dimensión espacial). Nadie tiene la menor idea de por qué el mundo en que vivimos tiene una dimensión temporal y tres espaciales y no, por ejemplo, once dimensiones. Por supuesto, el mundo sería muy distinto si alterásemos su dimensionalidad. Quizá las dimensiones superiores sean fatales para la vida y debamos agradecer nuestra modesta asignación de cuatro. 

Habitamos en un mundo espaciotemporal de tres dimensiones más una y lo aceptamos así, sin más, simplemente porque está escrito en las leyes de la física. Pero, claro está, que no todos los físicos están de acuerdo con esa disposición imperativa. Día a día, ha venido ganando terreno la idea de que la dimensionalidad de nuestro mundo debería deducirse como consecuencia de una teoría integral y general del universo y no constituir un ritualizado postulado inicial. A lo mejor, algún día, se desarrollan y comprueban nuevas dimensiones espaciotemporales observadas a partir de primeros principios. Desde hace ya algún tiempo, se están elaborando estructuras conceptuales en que los cálculos de más dimensiones podrían tener sentido algún día. Dentro de las primeras de estas estructuras conceptuales, se encuentra la llamada «teoría de KaluzaKlein», que surgió de otra generalización de la relatividad general tetradimensional einsteiniana, esta vez para espacios de más dimensiones. Antes de exponer de manera más sesuda y matemática la teoría de Kaluza-Klein, haremos una breve digresión para describir lo que significan dimensiones «grandes» y «pequeñas». 

Las tres dimensiones espaciales observadas son dimensiones «grandes»: podemos caminar por ellas. Si existieran dimensiones adicionales, no deberían ser como las «tres grandes»; si lo fuesen, también podríamos caminar por ellas, lo cual choca claramente con la experiencia. Las dimensiones extra que contemplan los físicos son dimensiones «pequeñas», tanto que no pueden verse, y por ello no influyen directamente en nuestra perspectiva tridimensional del mundo.

¿Qué son dimensiones «pequeñas»? Para entender lo que son dimensiones «pequeñas», imaginemos un mundo con una sola dimensión «grande». El espacio de este mundo unidimensional estaría representado por una línea infinitamente larga. Imaginemos luego que esa línea se apoya en la superficie de un cilindro, de forma que el espacio completo está ya representado por la superficie bidimensional del cilindro. La segunda dimensión «extra» corresponde a andar alrededor del cilindro. Si lo hacemos, volvemos al punto de partida: la dimensión extra es un círculo, no una línea. Los espacios que se rizan sobre sí mismos, como el espacio unidimensional de una línea circular o la superficie bidimensional de una esfera, reciben en matemática el nombre de «espacios compactos». Un cilindro puede considerarse un espacio bidimensional, una de cuyas dimensiones es compacta (el círculo) y la otra no compacta (la línea). Podemos imaginar un radio de círculo tan pequeño que se reduce a cero; volvemos así a un espacio unidimensional: la línea infinitamente larga. No hay duda de que si hacemos el círculo muy pequeño podremos aproximarnos al espacio unidimensional de la línea tanto como queramos. El círculo es la dimensión extra «pequeña» y la línea es la dimensión observada «grande». 

La posibilidad de que existan dimensiones extra «pequeñas» aparte de las «cuatro grandes» del espaciotiempo (dimensiones tan pequeñas que no contradicen la experiencia) la descubrió, en el marco de la relatividad general de Einstein, Theodor Kaluza. Este matemático, filósofo y filólogo, estudió las ecuaciones de Einstein generalizándolas para un espaciotiempo de cinco dimensiones en que la quinta dimensión «extra» era compacta: sólo un pequeño círculo.

Kaluza supuso que en cada punto del espaciotiempo tetradimensional ordinario había un circulito, lo mismo que lo hay en cada punto a lo largo de la línea en el cilindro que considerábamos. Igual que en el espacio ordinario podemos movernos de un punto a otro, podemos imaginar una partícula que se mueve alrededor del pequeño círculo en la quinta dimensión. Por supuesto, no se mueve muy lejos (y en modo alguno en las dimensiones «grandes»), porque el círculo es muy pequeño y lo único que hace es dar vueltas y vueltas. Pero aun así, ¿qué significa la posibilidad de este movimiento extra? Kaluza demostró que esta libertad de movimiento adicional asociada a una simetría de círculo en cada punto del espaciotiempo, podía considerarse la simetría de medida simple del campo electromagnético.

Esta interpretación no ha de resultar muy sorprendente desde un punto de vista moderno si consideramos que una simetría (como la simetría del circulito) entraña automáticamente la existencia de un campo de medida (como el campo electromagnético). La teoría de las cinco dimensiones de Kaluza no sólo describía, pues, la curvatura del espaciotiempo tetradimensional grande en función de las ecuaciones gravitatorias einsteinianas habituales, sino que además unificaba físicamente la gravedad en el campo de medida electromagnético de Maxwell, utilizando la extraña idea de una quinta dimensión circular. Kaluza logró unificar la gravedad y el electromagnetismo por medio de su quinta dimensión compacta, pero introduciendo varios supuestos restrictivos en la solución de las ecuaciones de Einstein. 

En 1926, Oskar Klein dio un impulso significativo a esta teoría, demostrando que estos supuestos restrictivos eran completamente innecesarios. Calculó, además, el radio del circulito de la quinta dimensión en función de las cantidades conocidas, la escala de distancia de Planck y la carga electrónica, obteniendo un radio de unos 10-30 cm,. un radio en extremo pequeño que aseguraba que la quinta dimensión era absolutamente invisible. Mas, pese a su pequeño tamaño, la libertad que tienen los campos para moverse alrededor de ese pequeño círculo está presente siempre en cada punto del espacio ordinario, y esa libertad basta para garantizar la existencia del campo electromagnético. En consecuencia, Klein asume una total independencia de la dimensión extra, generando un espaciotemporal pentadimensional que tendría la configuración R4 x S1, en que la quinta coordenada es periódica, 0 £ my £ 2p, donde m es la inversa del radio del círculo. Claro está, que en nuestra percepción diaria jamás vemos esa dimensión extra. 

A raíz de la periodicidad de la dimensión extra, podríamos desarrollar una expansión Fourier con esas mismas coordenadas, pero ello nos llevaría a una multiplicidad de campos de cuatro dimensiones. En consecuencia, y para poder entender mejor lo que queremos describir, procederemos primero a analizar las reducciones que introdujo Kaluza. En nuestra metodología, expresaremos un campo pentadimensional con û y tetradimensional con simple u. O sea, cinco dimensiones: û = 0, 1, 2, 3, 5 y cuatro dimensiones: u= 0, 1, 2, 3 (xû = (xu, y)

Después de los años treinta del siglo XX, la idea Kaluza-Klein perdió prestigio, y se abandonó durante un tiempo. El concepto de campos escalares, en esa época, gozaba de un rechazo absoluto. Pero cuando los físicos buscaron cualquier vía posible para unificar la gravedad con las demás fuerzas, volvió a adquirir prominencia, especialmente cuando se empezaron a desarrollar teorías con más dimensiones. Hoy, a diferencia de lo que sucedía en los años veinte, los físicos no sólo quieren ya unificar la gravedad con el electromagnetismo: quieren unificarla también con las interacciones débil y fuerte. Esto exige más dimensiones adicionales.

(CONTINÚA EN EL SIGUIENTE ARTÍCULO)

DIMENSIONES OCULTAS II


Los físicos teóricos han generalizado la teoría de las cinco dimensiones a un número arbitrario de dimensiones superiores. Todas las dimensiones superiores son compactas; se rizan en un pequeño espacio multidimensional que existe en cada punto del espacio ordinario y que es, por tanto, inobservable. Pero la libertad de moverse por esos pequeños espacios compactos con simetrías más generales que la simple de un círculo, se corresponde exactamente con la libertad de realizar transformaciones de medida de Yang-Mills. Curiosamente, las simetrías de medida locales son en realidad las del espacio compacto de dimensiones superiores. Debido a tal hecho matemático, todas las teorías de medida de campos de Yang-Mills pueden interpretarse de forma puramente geométrica en función de esos espacios compactos de dimensiones superiores. 

El gran inconveniente que presenta el modelo de Kaluza-Klein es su carencia de flexibilidad, ya que se trata de una teoría muy restrictiva, tanto que nadie ha conseguido dar con una versión realista que incluya el modelo estándar. Si bien agradecen esos principios restrictivos que delimitan alternativas en la búsqueda de la teoría correcta, los físicos se desilusionan al percibir que, hasta el momento, tales limitaciones extremas sólo han conducido a teorías que no logran describir el mundo cuántico observado. Pero se ha seguido investigando.
En 1978, Eugene Cremmer y Bernard Julia, dos físicos matemáticos franceses, realizaron un descubrimiento interesante al combinar la idea de Kaluza-Klein con la teoría de la supergravedad. Recordemos que hay ocho teorías de la supergravedad de las que la supergravedad N = 1 es la más simple, con sólo los campos del gravitón y el gravitino, y la N = 8 la más compleja, con 163 campos diferentes. Cremmer y Julia percibieron que si la supergravedad N = 1 se aborda en un espacio de once dimensiones (en vez de cuatro) y se supone que 7 de esas once dimensiones son compactas a la Kaluza-Klein, y las cuatro restantes son las «grandes» dimensiones espaciotemporales, la teoría resultante en esas cuatro dimensiones es la supergravedad N = 8. Una teoría de supergravedad N = 1 simple, de once dimensiones, se convierte así en la complicada teoría de la supergravedad N = 8 de cuatro. Este resultado animó a los que esperaban que las teorías de campo complejas, necesarias para describir el mundo real tetradimensional, surgiesen de teorías mucho más simples al considerarlas en dimensiones superiores. Algunos físicos tienen la esperanza de que baste hallar la aplicación adecuada de la idea de Kaluza-Klein para que surja la teoría general del universo.

Pese al atractivo estético de los principios básicos, para que la idea de la unificación multidimensional funcione es preciso superar importantes obstáculos matemáticos. Por una parte, nadie sabe por qué razón profunda unas dimensiones son compactas y pequeñas y otras (las cuatro que vemos) son grandes. La teoría de Kaluza-Klein se limita a suponer que cuatro dimensiones son grandes y que las otras son compactas: un supuesto del que los físicos esperan poder prescindir algún día. Es muy probable que la idea de la simetría rota (en este caso la simetría rota de un espacio multidimensional) desempeñe un papel importante en la tarea de librarles de ese supuesto. Quizá el mundo real, con sus cuatro dimensiones grandes, corresponda a la solución rota, pero estable, de las ecuaciones que expresan las simetrías de una geometría multidimensional.

Estas ideas, aunque interesantes, aún no han resuelto el problema básico de la dimensionalidad del espaciotiempo observada. Otro de los obstáculos que presenta el modelo pentadimensional es el valor del radio de la quinta dimensión. Klein calculó en sus trabajos el radio de la quinta dimensión en función de la longitud de Planck y de la carga electrónica, medida de la fuerza de interacción electromagnética. Si conociéramos el valor del radio de la quinta dimensión, podríamos determinar la carga electrónica invirtiendo el cálculo. Los físicos han calculado recientemente los radios de las otras dimensiones y han utilizado esos cálculos para determinar las cargas correspondientes a la fuerza de las otras fuerzas. Pero estas cargas calculadas son, con mucho, demasiado grandes para poder relacionarlas con la fuerza observada de dichas fuerzas. Todo esto tiene como consecuencia que muchos físicos consideren que esas teorías multidimensionales no son muy realistas. 

Pero esos problemas estimulan hoy la imaginación de los físicos teóricos. La idea de que las diversas simetrías de medida que desempeñan un papel tan decisivo en la comprensión de las fuerzas naturales sean simplemente una manifestación de la simetría de un espacio de dimensiones superiores, posee tal atractivo que se sigue trabajando en esta maravillosa idea hasta demostrar su incompatibilidad con la experiencia o hasta que surja una idea mucho mejor. No se desechará fácilmente la esperanza de lograr la unificación geométrica de la gravedad con el resto de las fuerzas de la naturaleza mediante una gran ampliación de la teoría de la relatividad general de Einstein. Quizá algún día unos físicos teóricos lleguen incluso a aclarar el problema de por qué nuestro mundo tiene tres dimensiones espaciales y una temporal. En el ámbito de estas ideas, ni siquiera esperar hallar la solución a ese problema trascendental parece mucho esperar.

martes

TEORIA KALUZA KLEIN I


Hasta hoy, no se ha logrado, ni mucho menos, inventar una teoría de campo consistente totalmente unificadora que incluya la gravedad. Se han dado grandes pasos, pero las brechas «científicounificantes» siguen siendo amplias. El punto de partida ha sido siempre la teoría de la relatividad general y conceptos con ella relacionados, por la excelencia que manifiesta esa teoría para explicar la física gravitatoria macrocósmica. El problema que se presenta surge de la necesidad de modificar esta teoría sin perder por ello las predicciones ya probadas de la gravedad a gran escala y resolver al mismo tiempo los problemas de la gravedad cuántica en distancias cortas y de la unificación de la gravedad con las otras fuerzas de la naturaleza. 

Desde las primeras décadas del siglo XX, se han hecho intentos que buscan la solución a este problema, y que han despertado gran interés. Entre ellos, podemos destacar, entre otros, los siguientes: la la teoría de Kaluza-Klein; la teoría de la Supergravedad, y la teoría de las Cuerdas y Supercuerdas, por seguir un orden cronológico. Pero, por ahora, y centrándonos en el tema principal de este artículo, nos vamos a referir sucintamente a la primera, ya que ésta comporta una gran relación con la tercera, que es a la que dedicaremos una mayor extensión. Sin embargo, corresponde señalar que las tres ideas que hemos mencionado, más otras que también son importantes, sólo el tiempo podrá decirnos si van a llevar a los físicos a callejones sin salida o si nos conducen hacia una teoría general del Universo. 

La experiencia confirma que el hecho de que las dimensiones espaciotemporales del mundo en que vivimos sean tres más una, está escrito sin más en las leyes de la física tal como lo conocemos y pretendemos saber hoy. No todos los físicos aceptan esto, y propugnan que la dimensionalidad de nuestro mundo debería deducirse lógicamente de una teoría general del Universo y no constituir un postulado inicial. Claro que, todavía, estos científicos aún no pueden calcular el número de dimensiones espaciotemporales observadas a partir de primeros principios.

No obstante, sin embargo, han elaborando y continúan haciéndolo estructuras conceptuales en la que tal cálculo podría tener sentido algún día. De esas estructuras conceptuales, las más conocidas y elaboradas son la teoría de Kaluza-Klein y la teoría de las supercuerdas. Ambas surgen de otra generalización de la relatividad general tetradimensional einsteniana, esta vez para espacios de más dimensiones. Para exponer una síntesis de la curiosa teoría Kaluza-Klein, usaremos una descripción de algunos aspectos del electromagnetismo. 

La fuerza eléctrica está presente en una multiplicidad de fenómenos que a diario percibimos. Desde las chispas que se pueden observar cuando nos quitamos una prenda a los rayos que vemos en el cielo cuando somos espectadores de una tormenta atmosférica; a los electrodomésticos, y a otros muchos aparatos. Su origen es la carga eléctrica, esa propiedad extraña que poseen, por ejemplo, el electrón y el protón. Es curioso que algunas partículas están cargadas eléctricamente y otras no. Cosas de la naturaleza. El electrón y el protón tienen carga eléctrica; el neutrón y el neutrino no la tienen. ¿Por qué? No tenemos la menor idea. Hasta ahora lo consideramos como un antecedente que debemos de aceptar sin más. 

Lo cierto es que los electrones se repelen y en cambio electrones y protones se atraen. De ello sale la frase cotidiana, cuando decimos «cargas de igual signo se repelen, cargas de distinto signo se atraen». Aquí, observamos la posibilidad de una atracción y de una repulsión; mientras que, en la gravedad, sólo distinguimos una acción de atracción. Figuradamente podemos referirnos a ello como que mientras las masas todas se «aman», hay cargas que se «aman» y otras que se «odian».

Ahora bien, es gracias a esto, que puede ser considerado bastante ambiguo, el mundo es como es. La atracción torna posible los átomos, ya que los protones en el núcleo atraen a los electrones y así los atrapan y forman las 92 especies naturales de átomos que existen; por su parte, la repulsión es esencial para que los diferentes objetos comporten la consistencia necesaria que su funcionalidad reclama.

(CONTINÚA EN EL SIGUIENTE ARTÍCULO)

TEORIA KALUZA-KLEIN II


Matemáticamente, la fuerza eléctrica fue descubierta en el año 1785 por el ingeniero en estructuras Charles Coulomb. Ahora bien, con respecto a grandes distancias, la fuerza eléctrica actúa igual a como lo hace la gravedad: al duplicar la distancia, su magnitud disminuye a la cuarta parte (ley inversa al cuadrado de la distancia). Sin embargo, pese a que tienen esta similitud, no obstante se presenta una diferencia sustancial entre ellas. Mientras la gravedad depende de la masa del objeto (se duplica cuando la masa también lo hace), la fuerza eléctrica sólo depende de su carga (también se duplica con la carga, pero no se afecta si se duplica la masa). 

Todo esto tiene una consecuencia distinguible. Mientras dos cuerpos de distinta masa caen igual hacia un tercero que los atrae por gravedad, dos objetos de diferente carga caen en forma diferente si son atraídos eléctricamente hacia un tercero. La fuerza eléctrica no es reductible a una propiedad geométrica del espaciotiempo, como lo es la gravedad. 

Lo descrito arriba nos introduce en un frente de reflexión, investigación y observación no muy cómodo como para estar inserto en él. La ley de fuerza eléctrica de Coulomb no indica que si hay una carga eléctrica aquí y otra en la Luna, ellas se influyen mutuamente a través del vacío del espacio intermedio, tal como las masas lo hacen según la teoría de Newton de la gravedad. Pero en el cuento ¿cómo introducimos a la relatividad general? Buena pregunta. Para ello, podría considerarse la posibilidad de un espaciotiempo de cinco dimensiones en vez de cuatro. Matemáticamente, la cuestión es posible, pero... La posibilidad de que existan dimensiones extras «diminutas» aparte de las «cuatro grandes» del espaciotiempo (dimensiones tan diminutas y pequeñas que no contradicen la experiencia) la descubrió matemáticamente, en el marco de la relatividad general de Einstein, el alemán Theodoro Kaluza en 1919 (la publicación del artículo es de 1922).

Kaluza, matemático y filólogo, estudió las ecuaciones de Einstein generalizándolas para un espaciotiempo de cinco dimensiones, en que la quinta dimensión «extra» era compacta: configurada por un circulito. Kaluza supuso que en cada punto del espaciotiempo tetradimensional ordinario había un pequeño círculo, lo mismo que lo hay en cada punto a lo largo de la línea de un cilindro bidimensional.
Igual que en el espacio ordinario podemos movernos de un punto a otro, podemos imaginar una partícula que se mueve al rededor del pequeño círculo en la quinta dimensión. Por su puesto, no se mueve muy lejos (y en modo alguno en las dimensiones «grandes»), porque el círculo es muy pequeño y lo único que hace es dar vueltas y vueltas. Pero aun así, ¿qué significa la posibilidad de este movimiento extra? Kaluza demostró que esta libertad de movimiento adicional asociada a una simetría de círculo en cada punto del espaciotiempo, podía considerarse la simetría de medida simple del campo electromagnético. Esta interpretación no ha de resultar muy sorprendente desde un punto de vista moderno, si consideramos que una simetría (como la simetría del circulito) entraña automáticamente la existencia de un campo de medida (como el campo electromagnético). La teoría de las cinco dimensiones de Kaluza no sólo describía, pues, la curvatura del espaciotiempo tetradimensional grande en función de las ecuaciones gravitatorias einstianas habituales, sino que además unificaba físicamente la gravedad en el campo de medida electromagnético de Maxwell, utilizando la extraña idea de una quinta dimensión circular.
Tenemos pues que con la quinta dimensión, Kaluza nos entrega la posibilidad de obtener el electromagnetismo y la gravedad a partir de una misma teoría compactada, pero introduciendo varios supuestos restrictivos en la solución de las ecuaciones de Einstein. El problema es saber qué es esa quinta dimensión agregada que, físicamente, nadie ha podido percibir aún. Entonces, en el año 1926, aparece el físico sueco Oskar Klein, quien demuestra que los supuestos restrictivos son absolutamente innecesarios. Calculó, además, el radio del circulito de la quinta dimensión en función de las cantidades conocidas, la escala de distancia de Planck y la carga electrónica, cuyo resultado obtenido fue de un radio de unos 10-30 cm., pero ello asegura que la quinta dimensión era absolutamente invisible. Mas, pese a su diminuto tamaño, la libertad que tienen los campos para moverse alrededor de ese pequeño círculo está presente siempre en cada punto del espacio ordinario, y esa libertad basta para garantizar la existencia del campo electromagnético.

En la propuesta de Klein se afirma que la quinta dimensión existe, aunque está como arrugada y no somos sensibles a ella. Imaginemos cómo distinguimos a una autopista cuando volamos relativamente alto en un avión. Se ve como una línea sobre la superficie de la Tierra. Sin embargo, mirada de cerca tiene un ancho, y por ese ancho se moviliza toda clase de vehículos. Desde el avión, esos acontecimientos movilizados no los podemos ver debido a la distancia que nos separa del suelo de la Tierra. Según Klein, la quinta dimensión está como enrollada o arrugada y somos por ello incapaces de percibirla; extiende el ámbito del espaciotiempo en igual forma que en nuestra analogía la autopista enriquece la línea que percibimos de lejos.
Para Kaluza y Klein, el universo podría haber surgido como un espacio compacto multidimensional. «Un subespacio tetradimensional de este espacio multidimensional penetra luego en la configuración de la bola de fuego, representando el resto las simetrías internas observadas».

Según este punto de vista, el universo surge como un espacio multidimensional con un alto grado de simetría. Pero un universo con esta geometría puede ser inestable y experimentar una desintegración por el mecanismo de penetración. En consecuencia, las cuatro dimensiones se convierten en dimensiones «grandes» y su tamaño se expande muy deprisa, mientras que el resto (las dimensiones pequeñas) sigue siendo pequeño y se halla hoy presente en las simetrías «internas» de las partículas cuánticas.

En sus artículos, Kaluza y Klein no aportan explicación al hecho de que se hicieran grandes cuatro dimensiones en vez de siete u once. La explicación se la asignan a una responsabilidad del desarrollo futuro de la física. Pero si el modelo fuera el correcto, el origen del universo es el acontecimiento que instaura el número de dimensiones espaciotemporales observadas. No hemos de olvidar que este número es una pista del origen del universo que sobrevive al período inflacionario subsiguiente: la dimensionalidad del espacio no se diluye.
Después de la década de los años treinta, la idea Kaluza-Klein fue arrinconada y olvidada. Pero en el caminar de los físicos tras la consecución de poder encontrar una vía que les pudiera permitir encontrar la unificación de la gravedad con las demás fuerzas, ha vuelto a adquirir prominencia. Hoy, a diferencia de lo que sucedía en los años veinte, los físicos no sólo quieren ya unificar la gravedad con el electromagnetismo: quieren unificarla también con la interacciones débil y fuerte. Esto exige más dimensiones aún, y no sólo la quinta.

domingo

EL CAMINO CORRECTO I

A pesar de los reiterados trabajos que se difunden sobre las Teorías Unificadas en la literatura científica y en las crónicas de revistas, tanto especializadas como de circulación masiva, en el fondo se trata de reeditar un viejo anhelo de la civilización humana. Si investigamos relatos de antiguas mitologías sobre el mundo, es muy seguro que pronto nos encontremos ante las primeras teorías unificadas. Sus autores idearon una elaborada historia en la que había un lugar para todo y todo tenía su lugar. Obvio que no se trataba de teorías científicas sobre el mundo en el moderno sentido de la palabra, pero sí eran intuiciones donde se entrelazaban las conjeturas, las creencias, lo conocido y lo desconocido, para producir un cuadro único con un significado, en el que los autores podían introducirse con una confianza nacida de su interpretación del mundo que los rodeaba. 

Con la evolución y desarrollo de la civilización humana, fueron agregándose más elementos a la historia, algunos simples, otros complejos, volviéndose ésta, gradualmente, cada vez más artificial y complicada. Además, mientras estos relatos apuntaban a grandes extensiones del conocimiento al asimilar verdades observadas sobre el mundo como un todo único y coherente, carecían totalmente de rigor y profundidad: esto es, de la habilidad para extraer más de sus historias de lo que habían puesto en ellas anteriormente.
Las teorías científicas modernas sobre el mundo no se sostienen por sucesivas conjeturas, refutaciones, ni tampoco, creencias o credos, sino por programas de investigación rigurosos y profundos. Programas que buscan el hallazgo de nuevas predicciones y explicar fenómenos no incorporados en las especificaciones iniciales de las teorías. 

Un programa de investigación científica es un conjunto de teorías y sus anexos, afines y coherentes. Cada programa de investigación está estructurado mediante: a) un núcleo duro ("hardcore"), constituido por las teorías fundamentales del programa, heurístico negativo (la heurística es la capacidad de generar nuevas investigaciones); b) un cinturón protector externo, heurístico positivo, constituido por hipótesis de diversa índole capaces de explicar experimentos o situaciones y predecir nuevos hechos. Todo hecho nuevo que aparece, situación o experimento, es confrontado primero con el cinturón externo del programa; si es explicable o concordante con éste, el programa se fortalece; si no es así, se modifica el cinturón protector. Cuando el desacuerdo es de tal magnitud que amenaza al núcleo duro, el programa está en serias dificultades. 

Ahora bien, un programa de investigación es progresivo en tanto su contenido teórico (su capacidad de generar predicciones) se adelante al contenido empírico (generación de situaciones problemas); es regresivo o degenerativo cuando los hechos se anticipan a la teoría y el programa puede ofrecer, entonces, sólo explicaciones post-hoc. De este modo, el programa progresivo va asentándose, mientras el regresivo pierde terreno, y supera a este último. 

Un programa de investigación para cualquiera de las ramas de la Física, no se encuentra excluido de las características que hemos descrito en los párrafos precedentes. Pero sí se debe tener en consideración para algunas de sus especialidades, como las que se articulan para estudiar el Cosmos; la esencia de sus conocimientos es su propia incertidumbre, pues las predicciones físicas no pueden ser exactas, toda vez que es imposible considerar en los cálculos todas las variables que podrían influir en un evento dado. Y ello surge de la naturaleza misma, probabilística y secuencial, del Universo. De ese modo, las proposiciones que puedan plantearse sólo son significativas si se determina su grado de probabilidad (éste se logra en forma inductivo-empírica) y se aceptan aquellas de máxima probabilidad. 

Por lo general, los resultados que se obtienen en los programas de investigación en Física reflejan más bien los métodos usados en ellos y, por ende, es posible predecirlos analizando los métodos que en éste se usen en cada caso. Por tanto, lo que los científicos conocen de la realidad lo determinan ellos mismos a priori al seleccionar sus métodos. Las conclusiones que se puedan obtener del programa de investigación, sin embargo, para sus ejecutores, no representarán -en ningún caso- la verdad indiscutible, establecida para siempre y que puede terminar definitivamente cualquier discusión. La importancia que pueda tener esas conclusiones radica en su eficacia y eficiencia, en la resolución de muchos problemas del hombre, y su validez. 

En años recientes ha existido un renovado interés de los físicos en programas de investigación para la consecución de la posibilidad de una Teoría Unificada. Veremos cuál es el significado de esta teoría y cómo, a pesar de ser necesaria para nuestra descripción del Universo y su contenido, está lejos de bastar para completar este entendimiento. No podemos reducir todo lo que vemos a una Teoría Unificada, en el estilo de los físicos de partículas. Tenemos que incluir otros factores para completar una descripción científica del Universo. Una de las cuestiones que aparecerá en nuestro ensayo es hasta qué punto es peligroso sacar conclusiones sobre la Ciencia, o el método científico en general, al tratar un tema como el reduccionismo, o los méritos relativos de la religión y de la Ciencia. Las "ciencias locales", como la Biología o la Química, son muy diferentes de la Astronomía o de la Física de partículas. 

En la ciencia local podemos recoger virtualmente cualquier información que deseemos, llevar a cabo cualquier experimento, y lo más importante de todo, controlamos todas las posibles fuentes de sesgos sistemáticos introducidos por el sistema experimental o por el proceso de reunir observaciones. Los experimentos pueden repetirse de diferentes maneras. Este no es el caso en Astronomía: no podemos experimentar con el Universo; sólo podemos aceptar lo que nos ofrece. Lo que vemos está inevitablemente predispuesto por nuestra existencia y nuestra visión de ella: los objetos intrínsecamente brillantes están invariablemente sobrerepresentados en estudios astronómicos. Asimismo, en la Física de partículas de alta energía, una gran limitación se impone a nuestra habilidad para experimentar. No podemos alcanzar, experimentando directamente, las muy altas energías requeridas para resolver muchos de los secretos del mundo de las partículas elementales. La filosofía de la Ciencia ha dicho mucho sobre el método científico, suponiendo la existencia de un ambiente ideal en el que cualquier experimento deseado es posible; sin embargo, no ha tratado la realidad de las posibilidades experimentales limitadas con el mismo entusiasmo.

Una Teoría Unificada nacida de un programa de investigación que convoque la idea de una ley física sencilla y única que explique la totalidad de la existencia material, es la más cara aspiración de la mayoría de los integrantes de la comunidad de físicos. Esa ley física explicaría el origen del Universo, su contenido y su destino. Todas las demás leyes naturales podrían deducirse racionalmente de esta única ley. El descubrimiento de una ley así sería el triunfo definitivo de la Física: se completaría la explicación lógica de los fundamentos de la existencia. 

Nadie, ni siquiera los físicos, tienen prueba alguna de que exista tal ley. Es fácil ver que sería muy problemática. Quizá la idea misma de la ley física se descomponga a cierto nivel. Por ejemplo, la descripción matemática de la Naturaleza, que hasta ahora no ha fallado nunca a los físicos, podría no servir para la tarea de expresar esa ley. Otra posibilidad es que esa ley exista, pero que el entendimiento humano no pueda comprenderla. Ni siquiera una superinteligencia artificial de capacidad más que humana podría abarcar la propia ley general. En consecuencia, esa ley no podría descubrirse. 

Las leyes físicas son comparables a las reglas que se dan para la práctica de los deportes o de los juegos de azar. Pero, a diferencia de éstas, elaboradas por seres humanos, las leyes físicas parecen algo inherente al orden del Universo, que no inventaron los humanos. A veces, se cambian las reglas del juego para permitir, por ejemplo, un equilibrio en caso de diferencia notoria de habilidad o fuerza. En tal caso, hay una norma no expresa, que rige la modificación de las reglas: la de que se desea que el juego sea más interesante y competitivo igualando a los adversarios. Podemos suponer que las leyes físicas cambian también así, pero que existe una nueva ley que rige el cambio. Es muy posible que, cuando los físicos descubran nuevas leyes que incluyen racionalmente las leyes anteriores, descubran que ese proceso nunca acaba. En vez de hallar una ley universal absoluta que sea la base fundamental de la existencia, pueden encontrarse con una repetición interminable de leyes, o, peor aún, con la confusión y la falta más absoluta de normas... un Universo fuera de la ley. 

No hay, pues, garantía alguna de que nos aguarde una ley física sencilla. No obstante esta posibilidad, la idea de una ley simple que describa toda la existencia nos atrae como el Santo Grial. Y, como la búsqueda del Santo Grial, la investigación puede resultar más interesante que el objeto buscado. 

Hasta hace poco, se pensaba que los físicos deducían las leyes de la Naturaleza directamente de la experimentación y de la observación. Las leyes básicas estaban íntimamente ligadas a la experimentación. Hoy, en los programas de investigación, se ha abandonado esa vía y los físicos no deducen las leyes directamente de la experimentación. Procuran, más bien, intuir las leyes básicas partiendo del razonamiento matemático para posteriormente -si se puede, o si alguna vez se pudiese- comprobarlas a través de la observación o de la experimentación.
Pero dentro de las características de un programa de investigación en Física, paradójicamente los razonamientos matemáticos van naciendo de un orden que emerge del caos. Supongamos que tenemos dos secuencias de dígitos. La primera tiene la forma ...001001001001001001..., mientras la segunda tiene la forma ...010010110101111010010... 

A continuación, nos corresponde preguntarnos si estas secuencias son aleatorias u ordenadas. Sin duda que la primera corresponde a una secuencia ordenada, y decimos esto porque es posible visualizar un patrón en ella; esto es, podemos reemplazar la primera secuencia por una regla que nos permite recordarla o comunicarla a otros sin catalogar simplemente su contenido. Así, llamaremos a una secuencia no aleatoria si podemos abreviarla con una fórmula o regla más breve que ella. Si es así, decimos que es comprimible. Distinto se da el caso para la segunda frecuencia; en ella no existe posibilidad de abreviación o fórmula que capture la información que contiene: entonces decimos que es incomprimible. Si necesitamos hacer descripciones sobre la secuencia incomprimible, tendremos que catalogarla en su totalidad. No es posible condensar su información de una manera más corta que la secuencia misma. 

Esta simple idea nos permite extraer algunas lecciones sobre la búsqueda científica de una teoría unificada. Podemos definir la Ciencia como una forma válida de ver y explicarse el mundo, el hombre, el Universo. También lo son el arte, la religión, la filosofía, los mitos. Pero la Ciencia observa el mundo de todas las maneras posibles y reúne hechos relacionados con él. Busca patrones en esos hechos, compresiones de la información que se puede tabular, y a estos patrones se les llama las leyes de la Naturaleza. La búsqueda de una Teoría Unificada es la búsqueda de una última compresión del mundo. La demostración de Chaitin del teorema de la incompletitud de Gödel, usando los conceptos de complejidad y compresión, revela que el teorema de Gödel es equivalente al hecho de que no se puede probar que una secuencia no se pueda comprimir. Nunca probaremos que una compresión es la última; siempre existirá una unificación más profunda y simple, esperando ser encontrada.

EL CAMINO CORRECTO II


Nuestro análisis de la compresibilidad de las secuencias nos deja una enseñanza: que un patrón, o simetría, es equivalente a leyes o reglas de cambio. La leyes clásicas de cambio, como las leyes de Newton sobre la conservación de los momentos lineales, son equivalentes a la invarianza de una cantidad o patrón. Estas equivalencias sólo se conocen mucho después de la formulaciones de las leyes del movimiento que gobiernan los cambios permitidos. Esto concuerda con la tradición platónica, que enfatiza los aspectos atemporales del mundo, que no cambian, como clave para sus estructuras fundamentales. Estos atributos eternos, o "formas" como las llamó Platón, parecen haber surgido con el paso del tiempo como las leyes de la Naturaleza o las magnitudes invariantes y de conservación (como energía y momento) de la Física moderna.

Desde 1973, este enfoque sobre la simetría ha sido el centro en el estudio de la Física de partículas elementales y las leyes que gobiernan las interacciones fundamentales de la Naturaleza. Como ya lo mencionamos, no hace mucho se pensaba que los físicos deducían las leyes de la Nnaturaleza directamente de los experimentos y de la observación. Las leyes básicas estaban íntimamente ligadas a la experimentación. Hoy se ha abandonado esa vía y los físicos no deducen las leyes directamente de la experimentación. Procuran, más bien, intuir las leyes básicas partiendo del razonamiento matemático. Nadie ha expuesto tan bien este alejamiento del empirismo estricto como Einstein en una de sus conferencias, en 1936. Dijo lo siguiente: "Estoy convencido de que la interpretación matemática pura permite descubrir los conceptos y las leyes que los relacionan, y eso nos da la clave para comprender la Naturaleza... En cierto sentido, pues, yo creo que el pensamiento puro puede captar la realidad, como soñaban los antiguos".

Einstein estaba profundamente afectado por su propio descubrimiento de la teoría general de la relatividad. Había construido una interpretación puramente matemática, lo que llamaríamos un modelo, una "invención libre" de su pensamiento, para describir el mundo físico. A partir de este modelo, hizo racionalmente varias deducciones cuantitativas que deberían poder observarse: un pequeño cambio en la órbita del planeta Mercurio, la curvatura de la luz alrededor del limbo del Sol, el hecho de que los relojes anduviesen más despacio en un campo gravitatorio. Si las observaciones no confirmaban el modelo, el modelo no era válido; así que se trataba de un modelo verificable. Pero el modelo en sí era una creación libre y no una inducción experimental.

Einstein dijo también: "Si la base de la Física teórica no puede deducirse de la experiencia, sino que ha de ser una invención libre, ¿qué motivos tenemos para creer que podremos hallar el camino adecuado? Más aún, ¿existe en realidad este enfoque correcto fuera de nuestra imaginación? Yo respondo a esto con absoluta seguridad que, según mi opinión, el camino correcto existe. Y que tenemos capacidad para encontrarlo".

Encontrar el camino correcto es la ambición de quienes concentran sus esfuerzos en programas de investigación para desarrollar hoy modelos teóricos de campo. Los caminos que se han elegido parecen estar conduciéndoles al principio mismo del Universo; el tiempo dirá si son caminos falsos o equivocados. Los físicos teóricos, en sus recientes tentativas de entender el Universo, se han jugado el todo por el todo. Están ampliando los modelos teóricos bastante más allá de las energías que se manejan hoy en los laboratorios, hasta llegar a las elevadísimas energías de antes del primer nanosegundo de edad del Universo.

Casi todos estos programas tienen un denominador común: desarrollar modelos sostenidos en invenciones libres de su entendimiento. Son manejados por científicos relativamente jóvenes que se caracterizan por su visión sintetizadora, su energía libre y desbordante y su notable capacidad para sublimar impulsos más primitivos en la ambición intelectual de saber.

Los físicos, en su partida de cartas conceptual con la Naturaleza, han ganado ya unas cuantas manos, y ahora quieren ganar la partida: llegar hasta el principio de los tiempos. No es fácil saber si están tirándose a una piscina sin agua o si de verdad tienen todas las cartas necesarias. Quizá tengamos que revisar profundamente nuestra concepción de la realidad material para poder explicar el origen del Universo. Pero es evidente ya que las teorías relativistas del campo cuántico y sus intrincadas simetrías están aportando muchas sorpresas conceptuales, una fecundidad imprevista de capacidad explicativa que emociona a los físicos. El tema de su trabajo ha sido la unificación de los campos cuánticos, y de sus correspondientes fuerzas, mediante la aplicación de los principios de simetría.

En los actuales programas de investigación en Física, en general, se considera a la simetría como la principal guía en la estructura del mundo de las partículas elementales, y las leyes del cambio se derivan desde los requerimientos de simetrías específicas, a menudo de un carácter altamente abstracto, que se conservan. Estas teorías son llamadas "teorías de medición". Las más teorías de más éxito de las cuatro fuerzas conocidas de la naturaleza -electromagnética, débil, fuerte y gravitacional- son todas teorías de medición. Estas teorías requieren de la existencia de fuerzas que describen como necesarias para preservar las invariancias sobre las que están basadas. También pueden disponer el carácter de las partículas elementales de la materia que ellas gobiernan. En estos aspectos difieren de las clásicas leyes de Newton que, al regir el movimiento de todas las partículas, nada pueden decir sobre las propiedades de esas partículas. La razón de esta dimensión adicional es que el mundo de las partículas elementales regidas por estas teorías de medición, en contraste con el mundo macroscópico, está poblado por una colección de partículas prácticamente idénticas; por ello, es común escuchar en el ambiente académico que cuando se ha visto un electrón se han visto todas las partículas.

Para los programas de investigación en Física que buscan encontrar un modelo que otorgue una ley única que unifique las cuatro fuerzas de la Naturaleza, el uso de la simetría se ha constituido en una poderosísima herramienta, ya que permite que todo el sistema de leyes naturales sea derivado de la necesidad que un cierto patrón abstracto sea invariante en el Universo. Con posterioridad, las predicciones de este sistema de leyes pueden ser comparadas con el curso real de la Naturaleza. Es la ruta opuesta a la que habríamos seguido hace un siglo. Entonces, el estudio sistemático de hechos nos habría llevado a sistemas de ecuaciones matemáticas que nos darían las leyes del cambio; después, podría reconocerse que los hechos son equivalentes a alguna teoría global o local de invarianza.

Puede parecer inútil y hasta fútil, intentar reducir la diversidad de teorías para cada una de las interacciones de la Naturaleza a una teoría última, simple y única. Pero para quienes son físicos la apreciación aparece diferente, y hasta necesaria. Hasta ahora, los avances han sido importantes en la resolución de este problema, sobre la base de simetrías mayores, dentro de las cuales las simetrías más pequeñas respetadas por las fuerzas individuales de la Naturaleza puedan acomodarse de manera entrelazada, lo cual pone nuevas restricciones sobre sus formas permitidas. Esto podría considerarse que se trata de una estrategia con buenos resultados, probada experimentalmente, para la unificación de las interacciones electromagnética y débil. Y ha hallado una gran cantidad de proposiciones puramente teóricas para una próxima unificación con la fuerte: las Grandes Teorías Unificadas (GUT's), y finalmente, una cuádruple unificación con la fuerza gravitacional para producir la llamada Teoría del Todo (Theory of Everything: TOE).

La candidata favorita para una TOE es la teoría de las Supercuerdas. Es suficiente decir que el enorme interés que han despertado esta teoría en los últimos años puede atribuirse al hecho que revelan que el requerimiento de autoconsistencia lógica -sospechoso de ser una restricción bastante débil sobre la TOE- resultó ser enormemente restrictivo. Al principio se pensó que reducía las alternativas a sólo dos posibles simetrías que subyacieran a la TOE. Subsecuentemente se ha encontrado que la situación es aún más complicada que lo imaginado al principio, y que la teoría de las Supercuerdas requerían de una nueva clase de matemáticas para poder ser elucidada.

Los físicos están muy lejos de alcanzar ese objetivo final de la teorías unificadas, tal como se las concibe; son simplemente intentos para englobar todas las leyes que rigen las fuerzas fundamentales de la Naturaleza dentro de una ley singular derivada de la preservación de una sola simetría que lo abarca todo. Pero los programas para lograr el éxito de unificación de campos siguen adelante. Podríamos agregar que ahora se conocen cuatro fuerzas fundamentales, de las cuales la más débil es la gravitación. Podrían existir fuerzas de la Naturaleza aun más débiles y que son demasiado tenues para que nosotros seamos capaces de detectarlas (quizás nunca lo hagamos), pero cuya existencia es necesaria para adecuar la lógica indispensable de esa única teoría unificada.

sábado

GRAVEDAD CUANTICA I


Durante el siglo XX, la Física se fundamentó, en general, sobre dos grandes pilares: la mecánica cuántica y la teoría de la relatividad. Sin embargo, a pesar de los enormes éxitos logrados por cada una de ellas, las dos parecen ser incompatibles. Esta embarazosa contradicción, en el corazón mismo de Física teórica, se ha transformado en uno de los grandes desafíos permanentes en la Ciencia. 

La teoría de la relatividad general da cuenta a la perfección de la gravitación. Por su parte, la aplicación a la gravedad de la mecánica cuántica requiere de un modelo específico de gravedad cuántica. A primera vista, parecería que la construcción de una teoría de gravedad cuántica no sería más problemático que lo que resultó la teoría de la electrodinámica cuántica (QED), que ya lleva más de medio siglo con aplicaciones más que satisfactorias. 

En lo medular, la QED describe la fuerza electromagnética en términos de los cambios que experimentan las llamadas partículas virtuales, que son emitidas y rápidamente absorbidas de nuevo; el principio de incertidumbre de Heisenberg nos dice que ellas no tienen que conservar la energía y el movimiento. Así, la repulsión electrostática entre dos electrones puede ser considerada como la emisión, por parte de un electrón, de fotones virtuales y que luego son absorbidos por el otro. 

La misma mecánica, pero a través de los cambios de la partícula virtual de la gravedad, el gravitón (el cuanto del campo gravitacional), podría considerarse para estimar la atracción gravitacional entre dos cuerpos. Pero gravitones nunca se han visto. La gravedad es tan débil que puede obviarse a escala molecular, donde los efectos cuánticos son importantes. Ahora, si los cambios que podrían realizarse en los gravitones sólo se producen en la interacción entre dos puntos de masa, es posible, entonces, que en los cuerpos masivos se ignore los efectos cuánticos. 

El principio de incertidumbre de Heisenberg nos señala que no podemos medir simultáneamente la posición y la velocidad de una partícula subatómica, pero esta indeterminación es imperceptible para los planetas, las estrellas o las galaxias. 

Pero el principal obstáculo, sin embargo, es la cantidad de complicados procesos que implica examinar un gran número de gravitones. La gravedad se diferencia crucialmente del electromagnetismo al no ser lineal. Esta inlinealidad surge porque la gravedad posee la energía, y ésta tiene la masa, que gravita. En el lenguaje cuántico, esto implica que gravitones interactúan recíprocamente con otro gravitones, a diferencia de los fotones, que interactúan sólo con cargas y corrientes eléctricas y no con otros fotones. Ahora, como los gravitones interactúan unos con otros, las partículas de materia son rodeadas por complejas redes de gravitones virtuales que forman "lazos cerrados", muy semejantes a "árboles bifurcados". 

En la teoría de campo cuántica, los lazos cerrados son un signo de problema; ellos normalmente producen respuestas infinitas en los cálculos de procesos físicos. En QED, tales lazos ocurren cuando un electrón emite y absorbe de nuevo su propio fotón. En ese caso, los infinitos son soslayados a través de un procedimiento matemático conocido como renormalización. Si éste es hecho correctamente, se obtienen razonables respuestas. La QED es lo que se llama una teoría renormalizable porque todos los infinitos pueden ser soslayados sistemáticamente; en efecto, solo un conjunto de operaciones matemáticas es suficiente para eliminar los infinitos. 

Lamentablemente, tal procedimiento sistemático no es operativo cuando la mecánica cuántica es aplicada a la relatividad general; la teoría es, por lo tanto, no-renormalizable. Cada proceso que implique progresivamente más lazos cerrados de gravitones introduce nuevas variantes de términos infinitos. Lo anterior, coarta la investigación para muchísimos fenómenos de interés, y sugiere que puede que haya básicamente algo que esté errado en la relatividad general, en la mecánica cuántica, o en ambas. 

Pero miremos más allá del problema de renormalización. ¿Qué pasaría si nos remontáramos a un momento en que todo lo que podemos ver, y hasta lo que hay más allá de nuestro horizonte de 13.700 millones de años luz, estaba comprimido hasta un volumen menor que el de un núcleo atómico? A estas densidades descomunales, que se dieron durante los primeros 10–43 segundos del Universo (lo que se conoce como "tiempo de Planck", tanto los efectos cuánticos como la gravedad habrían sido importantes. ¿Qué ocurre cuando los efectos cuánticos convulsionan todo un Universo? Por ello, la Física será incompleta y conceptualmente insatisfactoria en tanto no se disponga de una teoría adecuada de la gravedad cuántica.

Algunos teóricos creen que ya es tiempo de explorar las leyes físicas que prevalecían en el tiempo de Planck, y han propuesto algunas hipótesis interesantes. Sin embargo, no hay consenso sobre qué ideas hay que descartar. Lo que es seguro es que debemos rechazar nuestras queridas concepciones del espacio y el tiempo basadas en el sentido común: el espaciotiempo a muy pequeña escala podría tener una estructura caótica, "espumosa", sin ninguna flecha temporal bien definida; puede que haya una generación y fusión continua de agujeros negros primigenios y minúsculos. 

La actividad podría ser lo bastante violenta para generar nuevos dominios espaciotemporales que evolucionarían como Universos independientes. Eventos más tardíos (en particular la fase inflacionaria) podrían haber borrado cualquier rastro de la era cuántica inicial. El único lugar donde podrían observarse efectos cuántico-gravitatorios sería cerca de las singularidades centrales de los agujeros negros (de donde ninguna señal puede escapar). Una teoría sin consecuencias evidentes fuera de estos dominios tan exóticos e inaccesibles no es verificable. Para que se la tome en serio debe estar íntimamente insertada o, en su defecto, articulada en alguna teoría con fundamento empírico, o bien debe percibirse como una conclusión inevitable y convincente.

(CONTINUA EN EL SIGUIENTE ARTICULO)

GRAVEDAD CUANTICA II


Durante las últimas décadas, varias tentativas han sido hechas para buscarle una solución al problema de la no-renormalización de la gravedad cuántica y caminar hacia la unificación de todas las fuerzas. La aproximación más esperanzadora para alcanzar ese viejo anhelo de los físicos es la teoría de las supercuerdas. 

Sin embargo, recordemos aquí que en la teoría de las supercuerdas se presume una escala natural energética determinada por la energía de Planck, alrededor de unos 10e19 GeV. Esto es 10e17 veces más alto que los tipos de energías que pueden ser producidos en los aceleradores de partículas más grandes, lo que imposibilita contrastar con la teoría la existencia misma de las supercuerdas. No obstante, los teóricos esperan que a escala de energía accesible, la relatividad general, el electromagnetismo, las fuerzas nucleares débiles y fuertes, las partículas subatómicas, surjan de la teoría de las supercuerdas como una aproximación. Así, se espera conseguir con ese modelo de cuerdas no sólo una ajustada descripción de la gravedad cuántica, sino que también intentar con ella la anhelada unificación de las fuerzas. 

Lamentablemente, no hay un único límite de baja energía para la teoría de las supercuerdas como tampoco un sólo modelo de la teoría. Por un tiempo, lo anterior pareció como una barrera infranqueable, pero en años recientes, y a través de una mayor abstractación matemática, se ha construido un nuevo modelo de supercuerdas conocido como la teoría M, que amalgama dentro de ella otras teorías de supercuerdas.

Por ahora, es demasiado pronto para pronunciarse si la teoría M es finalmente el medio que reconciliará la gravitación y la mecánica cuántica, pero sí debería poder cumplir con algunas expectativas, como ser las de explicar algunos hechos básicos sobre el mundo físico. Por ejemplo, el espaciotiempo de cuatro dimensiones tendría que surgir de la teoría, más bien que ser insertado en ella. Las fuerzas y las partículas de la naturaleza también deberían ser descritas, preferentemente incluyendo sus propiedades claves, como fuerzas de interacción y masas. Sin embargo, a no ser que la teoría M, o una variante futura, pueda ser proyectada a la baja energía de los laboratorio de Física para poder ser contrastada, corre el riesgo de empezar a ser olvidada y finalmente archivada como uno más de los muchos y elegantes ejercicios matemáticos que se han elaborado para la Física en los últimos tiempos. Si la teoría de supercuerdas es una pérdida de tiempo o no, el tiempo lo dirá. 

Por ahora, el desafío más duro a superar por la teoría es entender por qué el espacio de 9 dimensiones más el tiempo se "comprime" bajo el aspecto de nuestro espacio habitual tetradimensional (el tiempo más las tres dimensiones espaciales), en vez de hacerlo en tres o cinco dimensiones, y ver cómo sucede esto. Aún hay un espacio infranqueable entre la teoría de supercuerdas y los fenómenos observables. La teoría de supercuerdas plantea problemas demasiado difíciles ahora mismo para los matemáticos. En este aspecto, es muy diferente de la mayor parte de teorías físicas: normalmente, el aparato matemático de las teorías se desarrolla antes que éstas. Por ejemplo, Einstein utilizó conceptos geométricos desarrollados en el siglo XIX, no tuvo que partir de cero para construir las matemáticas que necesitaba. 

Por su parte, los físicos "cuerdistas" se empeñan en lo que es fácil de comprobar, es difícil de calcular y lo que es fácil de calcular, es difícil comprobar. En consecuencia, parece que el camino que se está siguiendo es pretender desarrollar la teoría más y más, y hacer cálculos cada vez más difíciles para poder predecir cosas que sean fáciles de observar. ¿El camino tendrá un final? Nadie tiene por ahora la respuesta. 

El físico Eugene Wigner escribió un célebre artículo sobre este particular que llevaba por título "La irrazonable efectividad de las matemáticas en las Ciencias Físicas". También es un hecho notable que el mundo exterior muestre tantas estructuras susceptibles de descripción en lenguaje matemático (sobre todo cuando tales estructuras se alejan mucho de las experiencias cotidianas que moldearon la evolución de nuestros cerebros). Edward Witten, el principal experto en supercuerdas, describe dicha teoría como "una Física del siglo XXI que cayó en el siglo XX". Sin embargo, sería más extraordinario que seres humanos de cualquier siglo llegaran a desarrollar una teoría tan "final" y general como pretenden ser las supercuerdas.

viernes

SOBRE PARTICULAS SUBATOMICAS


En los siglos IV y V a.C., la teoría griega del atomismo, cuyos máximos exponentes fueron Leucipo y su discípulo Demócrito, introducía, sin base experimental, objetos idénticos e indivisibles llamados átomos. En los siglos XVIII y XIX, con el desarrollo de la Química, tenemos que para John Dalton existen 20 elementos formados por átomos. En 1897, J.J.Thomson (Universidad de Cambridge, Inglaterra), encuentra experimentalmente el electrón. 

En 1911, E.Rutherford (Universidad de Manchester, Inglaterra), en un experimento crucial, descubre que la carga positiva del átomo está concentrada en el núcleo, en torno al cual se mueven los electrones. En 1932 queda establecido que el núcleo está constituido por protones y neutrones. En la década de los sesenta se acepta que estos protones y neutrones dejen de ser elementales y estén constituidos por quarks.

Hoy en día ya han sido detectadas una gran cantidad de partículas de tamaño inferior al átomo, constituyendo lo que se ha denominado "un zoo de partículas". ¿Pero cuáles son las elementales?

Es muy importante que quede claro este concepto. Llamaremos partículas elementales a aquellas que no poseen estructura interna y, por lo tanto, no "albergan" dentro de ellas otras partículas "aún más elementales". Todas aquellas partículas de tamaño inferior al átomo, pero no elementales, las llamaremos subatómicas. Así, por ejemplo, el protón es una partícula subatómica, pero no elemental, ya que está constituida por tres quarks, como veremos más adelante. El hecho de llamarlas subatómicas no significa que formen parte del átomo: simplemente, que su tamaño es inferior al "diámetro" de un átomo "medio", es decir, un angström, 10^-8 cm. 

Así, a una distancia de un angström, "vemos" que el átomo está constituido por los electrones y el núcleo, en el que no distinguimos sus constituyentes; a una distancia de 10^-13 (unidad denominada fermi, 1 fm = 10^ -13 cm), reconocemos en el núcleo protones y neutrones; a una distancia de 10^-17 cm, discernimos los quarks como sus constituyentes elementales. 

En general, podemos clasificar el "zoo de las partículas subatómicas" en cuatro grandes grupos: 

a) Hadrones, que son aquellas que sufren las interacciones fuertes, como los protones y los neutrones. A su vez, los hadrones se dividen en bariones y mesones. 

b) Leptones, que son aquellas que no intervienen en las interacciones fuertes, como el electrón. Son partículas elementales. 

c) Cuantos mediadores de interacciones, como el fotón. Son partículas elementales. 

d) Quarks, como el up. Son partículas elementales y hadrónicas. 

Todas las partículas subatómicas conocidas poseen una propiedad nueva y fundamental que se conoce como su estadística, la cual es consecuencia directa del hecho de que son microscópicas. La propiedad de la estadística únicamente se manifiesta cuando se consideran sistemas de dos o más partículas, las cuales no están muy alejadas unas de otras y, además, son idénticas entre sí, es decir, tienen todas sus propiedades iguales (masa, spin, carga eléctrica, etc.). 

Atendiendo a su estadística, las que obedecen a la llamada estadística de Fermi, se les llama fermiones, y satisfacen el Principio de Exclusión de Pauli. A todas las demás, es decir, las que no son fermiones, se les denomina bosones, y se dice que verifican la estadística de Bose. 

Si una partícula tiene spin semientero (s = 1/2, 3/2, 5/2, ....), se comporta como un fermión. Si una partícula posee spin entero (s = 0, 1, 2, ...), se comporta como un bosón. 

Por otro lado, en 1930, Paul A. Dirac hizo, y justificó teóricamente, la hipótesis de que si existe una partícula elemental con masa "m", spin "s" y carga eléctrica "q", debe de existir necesariamente otra partícula, llamada antipartícula de la primera, con la misma masa y spin y carga eléctrica opuesta "-q". Esta hipótesis recibió su primera y rotunda confirmación experimental con el descubrimiento del positrón, que fue inmediatamente identificado como la antipartícula del electrón. Los muones + y - fueron identificados como antipartículas el uno del otro. Análogamente, los piones + y - constituyen un par partícula-antipartícula. 

Si la partícula tiene carga eléctrica nula, coincidirá en algunos casos su antipartícula, como por ejemplo el fotón y el pión neutro, que tienen spin 1 y 0 respectivamente. En otros casos, la partícula y la antipartícula, siendo ambas eléctricamente neutras, son distintas entre sí, debido a la existencia de, al menos, una propiedad física nueva que las diferencia. Por ejemplo, este es el caso del neutrón y del antineutrón debido al número bariónico. 

Según el Modelo Estándar, que como veremos más adelante es un modelo bastante aceptado por la comunidad de físicos teóricos, existirían 62 partículas elementales, suponiendo que el modelo no fuese "quiral", es decir, que no distinguiese entre partículas levógiras y dextrógiras. Estas 62 partículas serían las siguientes: 

a) 18 quarks más 18 antiquarks (contando "sabores" y "colores"), spin igual a 1/2. 

b) 6 leptones más 6 antileptones, spin igual a 1/2. 

c) 13 cuantos o partículas mediadoras de interacciones: W+, W-, Zº, fotón, 8 gluones y gravitón. 

d) partícula de Higgs. 

Si se acepta el modelo "quiral", las tres familias o generaciones de leptones y quarks contendrían 30 partículas en cada generación. Las interacciones fuertes y electromagnéticas no distinguen entre levógiras y dextrógiras. Por lo tanto, el total de partículas elementales en este caso se elevaría a 104, siempre suponiendo que la partícula de Higgs fuese de un solo tipo. Obsérvese que los cuantos o partículas mediadoras de interacciones no tienen antipartículas./div>

MASA Y CARGA ELECTRICA

La primera propiedad de las partículas subatómicas es la masa, más precisamente la masa en reposo. Debido a la pequeñez de estos objetos físicos, habitualmente del orden de 10 -13 a 10 -17 cm, sus masas son también extraordinariamente pequeñas: por ejemplo, la masa del electrón es igual a 9,1091•10 -31 kg, y es necesario introducir otras unidades de masa distintas a las de gramos o kilogramos.
La energía en reposo es igual al producto de la masa en reposo por la velocidad de la luz (en el vacío), al cuadrado, según la ecuación relativista E = m•c 2. La masa puede medirse, por tanto, en unidades de energía. La masa es como una "energía comprimida", o la energía es una "masa expandida". Un electrón-voltio (1 eV), es la energía adquirida por un electrón sometido a una diferencia de potencial de 1 voltio. Su valor en julios es 1,6• 10 -19. Al ser una cantidad muy pequeña, se suelen utilizar sus múltiplos: el megaelectronvoltio (1 MeV), igual a un millón de eV y el gigaelectronvoltio (1 GeV), igual a 10 9 eV.
Así, la energía de un electrón en reposo es igual a 0,512 MeV, por lo que la masa del electrón es igual a 0,512 MeV/c2, siendo c la velocidad de la luz en el vacío.
Las partículas subatómicas poseen cargas eléctricas de magnitud igual a la del electrón, con igual signo o con el opuesto, o bien son eléctricamente neutras. Las partículas elementales llamadas quarks poseen cargas eléctricas fraccionarias, como veremos más adelante.
Las partículas subatómicas más conocidas, el electrón, el protón y el neutrón, fueron descubiertas en los últimos años del siglo XIX y primeros del XX. Investigaciones debidas a J.J.Thomson, en 1897, probaron la existencia del electrón, y le llevaron a determinar el cociente de su carga y su masa: e/m = 1,76• 10 11 C/kg. La magnitud de la carga eléctrica del electrón fue determinada experimentalmente por R. Millikan entre 1909 y 1913, hallando un valor igual a 1,6• 10 -19 C.
Los experimentos realizados en tubos de rayos catódicos condujeron a nuevos y fructíferos descubrimientos. Se estableció que las nuevas radiaciones halladas estaban constituidas por un gran número de minúsculas partículas, con carga eléctrica e+ y masa 1,67 •10 -27 kg (938,3 MeV/c2. Estas partículas reciben el nombre de protones (p). Otros experimentos realizados en Alemania y Francia en torno a 1930, llevaron a J.Chadwick, en 1932, en Inglaterra, a interpretar los resultados de la experimentación en el sentido de introducir, dentro del núcleo atómico, partículas eléctricamente neutras, con masa aproximadamente igual, pero algo superior, a la del protón. Estas nuevas partículas recibieron el nombre de neutrones (n), y correspondían, por sus propiedades, a las conjeturadas por E.Rutherford en 1920.

RAYOS COSMICOS

Existe una radiación, llamada rayos cósmicos primarios, formada por partículas de alta energía, que llegan a la parte más alta de la atmósfera terrestre, procedentes del espacio exterior, y desde todas las direcciones. Nuevas radiaciones (rayos cósmicos secundarios), se generan en la atmósfera, debidas a la interacción entre los núcleos atómicos de ésta y los rayos cósmicos primarios. La radiación de rayos cósmicos secundarios se hace máxima en una zona intermedia de la atmósfera.
Los rayos cósmicos primarios no son de naturaleza electromagnética, es decir, no están formados por fotones energéticos predominantemente, sino por partículas cargadas positivas: el 77% protones, el 21% partículas alfa y el 2% núcleos atómicos de masa intermedia o alta. Los rayos cósmicos primarios de energía más baja proceden básicamente del Sol, y los de energías más altas, del espacio exterior, aunque no está lo suficientemente claro. Su energía media es del orden de 20 10 3 MeV.
Los rayos cósmicos secundarios, producidos por los choques de los primarios con núcleos de oxígeno y nitrógeno de la atmósfera, contienen fotones de alta energía, neutrones, electrones y nuevas partículas, que han sido descubiertas a partir de 1932: el positrón, los muones y los piones.
El positrón (e+), descubierto por C.D.Anderson en 1932, posee la misma masa que el electrón y carga idéntica, pero positiva. Los muones mu+ y mu-, fueron identificados en 1937 por C.D.Anderson y S.H.Neddenmeyer, con masas iguales a 105,6 MeV/c2 y cargas eléctricas +e y -e.
En 1947, C.G.Lattes, H.Muirhead, G.Occhialini y C.F.Powell, analizando placas de emulsión nuclear que habían sido expuestas a gran altura a los rayos cósmicos, encontraron nuevas partículas, con cargas eléctricas +e y -e y masas iguales entre sí, igual a 139,6 MeV/c2, a las que llamaron piones (pi+ y pi-). Los piones cargados, una vez producidos, viajan como rayos cósmicos secundarios un cierto trayecto, hasta que se desintegran espontáneamente en muones más nuevas partículas llamadas muones neutrino, o en electrones más nuevas partículas llamadas electrones neutrino. Estas nuevas partículas, los neutrinos, pertenecen a tres clases: los vistos anteriormente, y a los que se les puede llamar también neutrinos asociados al pión y neutrinos asociados al electrón, y un nuevo tipo de neutrinos, que veremos más adelante, que son los neutrinos asociados al tauón, o tauones neutrino.
El antiprotón fue descubierto en el Sincrotón de protones denominado "Bevatrón", en la Universidad de Berkeley, California, en 1955, por un grupo dirigido por O.Chamberlain y E.Segré. Protones procedentes del Bevatrón bombardearon un blanco de cobre, y los antiprotones fueron detectados, con las características previstas, entre los productos finales. Poco más tarde, la creación de pares neutrón-antineutrón fue establecida experimentalmente.

EL ZOO DE LAS PARTICULAS

Antes de continuar con la descripción pormenorizada y cronológica de los descubrimientos de nuevas partículas, así como de sus interacciones, es conveniente tener una perspectiva amplia de las partículas que contempla el llamado "Modelo Estándar", ya que más allá de dicho Modelo, existen nuevas partículas y teorías de enorme interés, pero que no han encontrado aún el respaldo experimental suficiente. Incluso algunas partículas que veremos ahora, como el gravitón, no han sido aún descubiertas.
1.- HADRONES ("hadros": fuerte). Se dividen en Bariones ("baryos": pesado) y Mesones ("meso": medio).
a) Bariones estables. Sus propiedades son la masa (en MeV/c2), el spin, la vida media (en segundos), la composición en quarks, la carga eléctrica y la paridad intrínseca. Su número bariónico es igual a 1.
1. protón p: 938,28-1/2-3 •10 12 años-uud-1-1
1. neutrón n: 939,57-1/2-898-udd-0-1
1. lambda0: 1115-1/2-2,63 •10 -10-uds-0-1
1. sigma+: 1189-1/2-0,8 •10 -10-uus-1-1
1. sigma-: 1197-1/2-1,48 •10 -10-dds-(-1)-1
1. sigma0: 1192-1/2-5,8 •10 -20-uds-0-1
1. cascada0: 1314-1/2-2,9 •10 -10-uss-0-1
1. cascada-: 1321-1/2-1,64 •10 -10-dss-(-1)-1
1. omega+: 1672-3/2-0,82• 10 -10-sss-(-1)-1
1. lambdac+: 2282-1/2-2,3 •10 -13-udc-1-1
b) Mesones estables. Su número bariónico es igual a 0. El asterisco tras la letra del quark (sólo del quark) significa que se trata de un antiquark. Todos tienen paridad intrínseca igual a -1.
1. pi+: 139,57-0-d*u-2,6 •10 -8-1
1. pi-: 139,57-0-u*d-2,6 •10 -8-(-1)
1. pi0: 134,96-0-u*u-0,87 •10 -16-0
1. K-/K+: 493,67-0-u*s/us*-1,24 •10 -8-(-1)/1
1. K*0/K0: 497,72-0-d*s/ds*-0,89 •10 -10-0
1. eta: 548,8-0-u*u/d*d/s*s-0,7 •10 -18-0
c) Resonancias bariónicas: su número bariónico es igual a 1, al igual que su paridad intrínseca. Su spin es 3/2. Su vida media es del orden de 10 -23 segundos. Las principales: delta++, delta+, delta0, delta-, sigma*+, sigma*0, sigma*-, cascada*0 y cascada*-.
d) Resonancias mesónicas: su número bariónico es nulo y su paridad intrínseca es igual a -1. Las principales: ro-, roº, ro+, omega minúscula, eta prima y fi.
e) Mesones en cuya composición en quarks intervienen el quark y antiquark "charm". Su número bariónico es nulo y su paridad intrínseca es -1. Partículas: D°, D*°, D-, D+, J/Ÿ.
f) Mesones en cuya composición en quarks intervienen el quark y antiquark "bottom". Su número bariónico es nulo y su paridad intrínseca es igual a -1. Partículas: B°, B*°, B-, B+, g.
2.- LEPTONES ("leptos": ligero). Su número bariónico es nulo. Sus propiedades son la carga eléctrica, la masa, el spin, la vida media y el número leptónico. Los valores de la masa, el spin y la vida media son iguales para partículas y antipartículas, pero la carga eléctrica y el número leptónico tendrán valores opuestos.
1. electrón (e-): descubierto en 1897. (-1)-0,51-1/2-estable-1
1. electrón neutrino: descubierto en 1953. 0-4,6• 10 -5-1/2-estable-1
1. muón-: descubierto en 1936. (-1)-105,7-1/2-2,2• 10 -6-1
1. muón neutrino: descubierto en 1961. 0-0,25-1/2-estable-1
1. tauón-: descubierto en 1975. (-1)-1807-1/2-3 •10 -13-1
1. tauón neutrino: descubierto en 1986. 0-70-1/2-?-1
3.- QUARKS: up, down, strange, charm, bottom y top: u-d-s-c-b-t. Sus propiedades son la masa, el spin, el isospin, la tercera componente del isospin, la carga, el número bariónico, la extrañeza, el encanto, la belleza y la verdad. La tabla para los antiquarks es análoga, salvo que los valores de I3, Q, B, S, C, B, y T son opuestos. Los valores de la masa, spin e isospin son iguales a los de los quarks correspondientes.
1. u: 5-1/2-1/2-1/2-2/3-1/3-0-0-0-0
1. d: 10-1/2- 1/2-(-1/2)-(-1/3)-1/3-0-0-0-0
1. s: 150-1/2-0-0-(-1/3)-1/3-(-1)-0-0-0
1. c: 1500-1/2-0-0-2/3-1/3-0-1-0-0
1. b: 5000-1/2-0-0-(-1/3)-1/3-0-0-(-1)-0
1. t: ?-1/2-0-0-2/3-1/3-0-0-0-1.

INTERACCIONES ELECTROMAGNETICAS

Cuando un electrón (procedente de un Sincrotón, por ejemplo), incide sobre un protón, ambos internacional entre sí por estar cargados eléctricamente. En el Electromagnetismo "clásico" de Maxwell, la interacción de ambos está mediada por el campo Electromagnético: el campo electromagnético creado por el electrón al moverse, actúa sobre el protón, acelerándole, y recíprocamente.
Este proceso no puede estudiarse dentro de este marco clásico, ya que la pequeñez de las partículas nos obliga a utilizar la teoría Cuántica: al aproximarse ambas partículas, cada una de ellas emite un fotón que se propaga y es absorbido por la otra partícula, separándose tras ello. El campo Electromagnético está constituido por fotones: así aparece el cuanto de radiación electromagnética que llamamos fotón, y que tiene energía y momento como el electrón, pero carece de masa y se mueve a la velocidad de la luz.
Como consecuencia de la emisión y absorción del cuanto de radiación, o partícula mediadora de la interacción, , que transporta energía y momento de una partícula a la otra, tanto el protón como el electrón se desvían. El alcance de a interacción electromagnética es teóricamente infinito (en la práctica, muy largo) debido a que el fotón tiene masa nula.
Actualmente, existen modelos que incorporan principios de la Relatividad Especial con los de la Mecánica Cuántica, los TCC (Teoría Cuántica de Campos relativistas), proporcionando una descripción teórica en las que las partículas elementales son consideradas como objetos puntuales. Uno de ellos es la Electrodinámica Cuántica (QED), que estudia las interacciones electromagnéticas de objetos puntuales, tales como electrones, positrones y quarks. Como ejemplo de su bondad, baste decir que las predicciones teóricas y los valores medidos experimentalmente, coinciden en las ocho primeras cifras decimales.
Consideremos la interacción de dos electrones: la repulsión que sufren será mediada de la manera más simple por el intercambio de un fotón. Este proceso, como cualquier otro en TCC, puede representarse gráficamente mediante un diagrama llamado de Feynman, en honor a su autor. El cálculo de muchos de estos diagramas da valores infinitos, aunque las magnitudes físicas sean finitas. En esta teoría, se redefinen los parámetros físicos carga y masa en un proceso que se denomina "renormalización", para obviar los infinitos. Una teoría a la que no pueda aplicarse este procedimiento, tiene un poder predictivo nulo, y hay que desecharla. De aquí el éxito de la Electrodinámica Cuántica, que es renormalizable y que, una vez renormalizada, concuerda con la experiencia.
La Electrodinámica Cuántica es la Teoría Cuántica de Campos relativistas más sencilla que es invariante "gauge". Veamos lo que se entiende por invariancia o simetría "gauge". La QED es relativista, luego el tiempo se considera como la cuarta dimensión. La estructura de la QED, y por tanto sus ecuaciones, es invariante, es decir, las ecuaciones mantienen su forma si en cada punto del espacio-tiempo exterior efectuamos una rotación arbitraria alrededor de un círculo. Matemáticamente, estas rotaciones alrededor de un círculo, forman lo que se llama grupo U(1), y se dice entonces que la Electrodinámica Cuántica es una teoría de campos invariante gauge, con simetría U(1). Es también gracias a esta invariancia que la teoría es renormalizable, y que la masa del fotón es nula.

INTERACCIONES DEBILES

El neutrón aislado no es una partícula estable, como lo es el protón, sino que se desintegra en un proceso que llamaremos desintegración beta, al cabo de unos 20 minutos. Esta desintegración es debida a una nueva interacción que llamaremos débil. W. Pauli, en 1930, hizo la hipótesis que el proceso real de desintegración beta del neutrón es:
n = p + e- + antielectrón neutrino.
Otros procesos de desintegración están mediados por interacción débil. Los piones, como ya vimos anteriormente. Los muones, en electrones + muones neutrino+antimuones neutrino. Las llamadas partículas extrañas K o kaones, en muones + muones neutrino o pi+
+pi°, y otras como lambda°, sigma+, sigma-, sigma°, cascada- y cascada°.
Siguiendo los pasos de la Electrodinámica Cuántica, llamaremos partículas W+ y W- a los cuantos (cargados) mediadores de la interacción débil. También, apoyándonos en la QED, podemos concluir que las interacciones débiles están descritas por una teoría gauge con una invariancia formal SU(2), y por analogía con la teoría de Yukawa, añadir un tercer cuanto de interacción de carga eléctrica nula, la partícula Zº. Los tres cuantos mediadores tendrían spin igual a 1, y por tanto serían bosones.
En la década de los 60, se desarrolló un Modelo, llamado de Weinberg y Salam, que describe conjuntamente las interacciones electromagnéticas y débiles. El modelo es una teoría gauge en la que ambas interacciones participan cada una con su propia intensidad, medida por la constante de acoplamiento. En 1973, en el CERN (Suiza), se puso de manifiesto, indirectamente, la existencia de Zº. En 1983, en el SPS del CERN, dos grupos experimentales hicieron colisionar haces de protones y antiprotones, con energías de 270 GeV cada uno. El resultado fue espectacular: los bosones W+, W- y Zº fueron hallados experimentalmente de forma concluyente, y se midieron sus masas: 81 y 93 GeV/c2. C.Rubbia, director de uno de los grupos, fue galardonado con el premio Nobel en 1984.
A pesar del éxito de la Teoría Weinberg-Salam, no todo estaba resuelto satisfactoriamente, pues en sus términos iniciales corría el peligro de ser no renormalizable, y por lo tanto, perder su poder predictivo. El problema se resuelve modificando adecuadamente la Teoría, de forma que las ecuaciones sigan siendo invariantes, pero las soluciones a ellas no lo sean. A este procedimiento se le llama "rotura espontánea de la simetría". Ello se consigue introduciendo teóricamente unas nuevas partículas de spin igual a cero, conocidas como bosones de Higgs; mediante este procedimiento se consigue, simultáneamente, que la Teoría sea renormalizable y que las masas de W+, W- y Zº sean distintas de cero, manteniendo la masa del fotón nula.
Las partículas de Higgs no han sido detectadas aún experimentalmente, siendo su eventual descubrimiento, si es que existen, uno de los grandes retos para los futuros aceleradores.