martes
INTERACCIONES FUERTES
La existencia de núcleos atómicos, teniendo en cuenta que los protones son positivos, sería imposible si no existieran unas fuerzas que impidiesen las repulsiones eléctricas.
Ha de existir, necesariamente, una fuerza que mantenga protones y neutrones unidos cuando se mueven dentro del volumen nuclear, es decir, a cortas distancia del orden de un fermi. Esta fuerza es debida a una nueva interacción llamada interacción fuerte, de carácter esencialmente diferente a la electromagnética.
En 1935, H.Yukawa formuló una interesante analogía entre las interacciones electromagnética y fuerte, conjeturando que la interacción fuerte era debida al intercambio de una nueva partícula entre nucleones (protones y neutrones). Esta nueva partícula portadora de la interacción fuerte recibió el nombre de mesón de Yukawa. Estimaciones teóricas de las masas de los mesones de Yukawa, así como de la intensidad de la interacción entre piones y nucleones, condujeron a la identificación de los mesones de Yukawa con los piones pi+ y pi-.
¿Hay también mesones de Yukawa eléctricamente neutros?. La respuesta es afirmativa. Hacia 1950 ya estaba confirmada la existencia de una nueva partícula con masa 135 MeV/c2: el pión neutro piº. Por lo tanto, según la Teoría de Yukawa, los tres piones eran los portadores de la interacción fuerte. El piº es inestable y se desintegra en dos fotones.
Hoy en día se acepta que la hipótesis de Yukawa, aunque correcta en muchos aspectos, tiene limitaciones, y se conoce otra teoría más fundamental de la interacciones fuertes: la Cromodinámica Cuántica. En ella, los mediadores elementales de la interacción fuerte ya no son los piones, aunque en Física de bajas energías, inferiores a 1000 MeV, gran número de situaciones físicas se pueden aproximar, en términos de estos últimos, al estudio anterior.
Siguiendo el ejemplo de la Electrodinámica Cuántica, se acepta que las interacciones fuertes vienen descritas por una teoría invariante gauge bajo el grupo de simetría SU(3), a la que se le da el nombre de Cromodinámica Cuántica (1973). Los quarks, componentes de protones y neutrones, interaccionan entre sí mediante el intercambio de unas nuevas partículas mediadoras llamadas gluones, siendo por lo tanto éstos los cuantos mediadores de la interacción fuerte. La teoría es renormalizable y tiene, por tanto, poder predictivo.
Los gluones son partículas con masa y carga eléctricas nulas y con spin igual a uno. ¿Cuántos gluones hay? En total tenemos ocho gluones en Cromodinámica Cuántica, frente a un solo fotón en Electrodinámica Cuántica. La QED es una Teoría relativamente sencilla porque el fotón no interacciona consigo mismo al no tener carga eléctrica; pro en el caso de la Cromodinámica Cuántica y los gluones es diferente, tal que éstos interaccionan entre ellos debido al "color". Se especula con la existencia de estados ligados formados sólo por gluones, los llamados glueball o bolas de gluones, que no han sido detectados experimentalmente.
Indicación indirecta de la existencia de los gluones ha sido proporcionada por la desintegración de la partícula J/Ÿ, dando tres "chorros"de hadrones a altas energías: un gluón da lugar a un chorro intermedio de quarks y antiquarks que se mueven en la misma dirección, y que, al recombinarse, originan el chorro final de hadrones observados.
lunes
EL MODELO ESTANDAR
Tenemos una Teoría para la interacciones electromagnéticas y débiles (electrodébiles), el Modelo de Weinberg-Salam, y otra para la interacciones fuertes, la Cromodinámica Cuántica, que están de acuerdo con la experiencia, por lo menos hasta las energías de los aceleradores actuales, del orden de los 100 GeV. Dejando a un lado la Gravitación, en los procesos entre partículas subatómicas se dan generalmente los tres tipos de interacciones, y por tanto sería de desear que hubiera un Modelo que tratase las tres conjuntamente.
El Modelo más sencillo que podemos postular para las tres interacciones conjuntamente, y que esté de acuerdo con la experiencia, es aquel que reúna simplemente los modelos anteriores, es decir, la Cromodinámica Cuántica y la Teoría Weinberg-Salam, y que sería, por tanto, invariante bajo las simetrías gauge que tienen separadamente éstos: SU(3) en Cromodinámica Cuántica y SU(2) y U(1) en interacciones electrodébiles. Matemáticamente, la simetría es SU(3)xSU(2)x(U1).
Nótese que cada interacción interviene con su propia intensidad. A este modelo se le conoce con el nombre de Modelo Estándar (norma), y es renormalizable. Es consistente con los resultados experimentales conocidos hasta ahora, energías del orden de 100 GeV, y tiene poder predictivo, aún no contrastado, para energías superiores. El Modelo Estándar es consistente con las leyes de conservación, pero no es, ni mucho menos, un modelo "definitivo".
Quedan aún muchos cabos sueltos extremadamente importantes, como:
a) ¿Cuál es el origen de la simetría conjunta del Modelo Estándar ((SU(3),SU(2),U(1))?
b) ¿Por qué existen tres familias de quarks y de leptones?
c) El Modelo tiene 20 parámetros (constantes de acoplamiento, masas, ángulo de Weinberg, etc.), que no son predichos por la Teoría, sino que han de ser fijados al comparar las predicciones con los datos experimentales.
d) Considerando, por ejemplo, la carga del electrón como unidad de carga eléctrica, ¿se puede predecir las cargas fraccionarias de los quarks a partir de esta unidad?
El Modelo más sencillo que podemos postular para las tres interacciones conjuntamente, y que esté de acuerdo con la experiencia, es aquel que reúna simplemente los modelos anteriores, es decir, la Cromodinámica Cuántica y la Teoría Weinberg-Salam, y que sería, por tanto, invariante bajo las simetrías gauge que tienen separadamente éstos: SU(3) en Cromodinámica Cuántica y SU(2) y U(1) en interacciones electrodébiles. Matemáticamente, la simetría es SU(3)xSU(2)x(U1).
Nótese que cada interacción interviene con su propia intensidad. A este modelo se le conoce con el nombre de Modelo Estándar (norma), y es renormalizable. Es consistente con los resultados experimentales conocidos hasta ahora, energías del orden de 100 GeV, y tiene poder predictivo, aún no contrastado, para energías superiores. El Modelo Estándar es consistente con las leyes de conservación, pero no es, ni mucho menos, un modelo "definitivo".
Quedan aún muchos cabos sueltos extremadamente importantes, como:
a) ¿Cuál es el origen de la simetría conjunta del Modelo Estándar ((SU(3),SU(2),U(1))?
b) ¿Por qué existen tres familias de quarks y de leptones?
c) El Modelo tiene 20 parámetros (constantes de acoplamiento, masas, ángulo de Weinberg, etc.), que no son predichos por la Teoría, sino que han de ser fijados al comparar las predicciones con los datos experimentales.
d) Considerando, por ejemplo, la carga del electrón como unidad de carga eléctrica, ¿se puede predecir las cargas fraccionarias de los quarks a partir de esta unidad?
TEORIAS DE GRAN UNIFICACION
Si bien en el Modelo Estándar se reunían tres de las interacciones fundamentales, no por eso quedaban unificadas, pues cada una de ellas aparecía con su intensidad propia y, por tanto, con su constante de acoplamiento característica. Podría ocurrir que a una determinada energía muy superior a los 100 GeV, las tres constantes tuviesen un mismo valor. Físicamente, esto significaría que a esta determinada energía, las tres interacciones tendrían la misma intensidad, es decir, que tendríamos una única interacción.
Las Teorías de Gran Unificación o G.U.T. son aquellas que estudian las interacciones fundamentales en el rango de energías en que las tres llegan a ser una misma. Tendríamos entonces una única interacción, y, por tanto, una única intensidad. En 1974, H.Geogi y S.Glashow (Harvard, E.E.U.U.), propusieron el grupo SU(5) como el más sencillo de todos los posibles. Si en dicho modelo SU(5) se estudia la evolución con la energía de las tres constantes de acoplamiento, se comprueba el hecho sorprendente de que éstas se unifican a una energía del orden de 10 15 GeV.
Una energía tan enorme no será alcanzada por las generaciones futuras de aceleradores. Entonces, ¿por qué no conformarnos con el Modelo Estándar, aunque sea renunciando al placer estético de unificar las interacciones fundamentales?.
En respuesta a esto se pueden dar, al menos, dos razones que hacen relevantes las Teorías de Gran Unificación. Primera: estas energías se alcanzaron en el Universo cuando, después del Big Bang, su diámetro y su temperatura eran, respectivamente, del orden de 10 -29 cm y 10 28 ºC (esto convierte al Universo en el laboratorio ideal). Segunda: la posibilidad de formular una Teoría a 10 15 GeV, con un número de parámetros inferior a los que aparecen en el Modelo Estándar. Por supuesto, luego tendríamos que "descender" de 10 15 GeV a 100 GeV, es decir, hacer predicciones a las energías ordinarias.
Si en una teoría con una invariancia gauge SU(3), como la Cromodinámica Cuántica, teníamos ocho partículas mediadoras de la interacción fuerte (los gluones), en el caso SU(5) tendríamos 24. De estas 24 conocemos, hasta ahora, sólo 12: 1 fotón, 8 gluones y los bosones W+, W- y Zº, que son los mediadores de las interacciones electromagnética, fuerte y débil, respectivamente, que pasaban de un quark a otro quark y de un leptón a otro leptón. pero ahora, las 12 partículas mediadoras restantes (que se denominan bosones X e Y), permitirán el paso de quark a leptón y viceversa. Este hecho tiene una consecuencia física relevante e inédita: el protón, que hasta ahora se consideraba una partícula estable, ¡se desintegraría!
Entre otras predicciones del modelo SU(5), están el ángulo de Weinberg y la cuantificación de la carga eléctrica. A pesar de su éxito, este modelo deja muchas cuestiones sin resolver como la existencia, al menos, de tres familias, el elevado número de parámetros (21), la llamada "jerarquía de roturas", y además, ¿por qué no incluir, a esas enormes energías, la interacción gravitatoria?
El elevado número de parámetros y la jerarquía de roturas requieren la introducción de un nuevo concepto: la "Supersimetría". En cuanto a la introducción de la interacción gravitatoria, este tema dará lugar a la teoría conocida con el nombre de "Supergravedad".
Las Teorías de Gran Unificación o G.U.T. son aquellas que estudian las interacciones fundamentales en el rango de energías en que las tres llegan a ser una misma. Tendríamos entonces una única interacción, y, por tanto, una única intensidad. En 1974, H.Geogi y S.Glashow (Harvard, E.E.U.U.), propusieron el grupo SU(5) como el más sencillo de todos los posibles. Si en dicho modelo SU(5) se estudia la evolución con la energía de las tres constantes de acoplamiento, se comprueba el hecho sorprendente de que éstas se unifican a una energía del orden de 10 15 GeV.
Una energía tan enorme no será alcanzada por las generaciones futuras de aceleradores. Entonces, ¿por qué no conformarnos con el Modelo Estándar, aunque sea renunciando al placer estético de unificar las interacciones fundamentales?.
En respuesta a esto se pueden dar, al menos, dos razones que hacen relevantes las Teorías de Gran Unificación. Primera: estas energías se alcanzaron en el Universo cuando, después del Big Bang, su diámetro y su temperatura eran, respectivamente, del orden de 10 -29 cm y 10 28 ºC (esto convierte al Universo en el laboratorio ideal). Segunda: la posibilidad de formular una Teoría a 10 15 GeV, con un número de parámetros inferior a los que aparecen en el Modelo Estándar. Por supuesto, luego tendríamos que "descender" de 10 15 GeV a 100 GeV, es decir, hacer predicciones a las energías ordinarias.
Si en una teoría con una invariancia gauge SU(3), como la Cromodinámica Cuántica, teníamos ocho partículas mediadoras de la interacción fuerte (los gluones), en el caso SU(5) tendríamos 24. De estas 24 conocemos, hasta ahora, sólo 12: 1 fotón, 8 gluones y los bosones W+, W- y Zº, que son los mediadores de las interacciones electromagnética, fuerte y débil, respectivamente, que pasaban de un quark a otro quark y de un leptón a otro leptón. pero ahora, las 12 partículas mediadoras restantes (que se denominan bosones X e Y), permitirán el paso de quark a leptón y viceversa. Este hecho tiene una consecuencia física relevante e inédita: el protón, que hasta ahora se consideraba una partícula estable, ¡se desintegraría!
Entre otras predicciones del modelo SU(5), están el ángulo de Weinberg y la cuantificación de la carga eléctrica. A pesar de su éxito, este modelo deja muchas cuestiones sin resolver como la existencia, al menos, de tres familias, el elevado número de parámetros (21), la llamada "jerarquía de roturas", y además, ¿por qué no incluir, a esas enormes energías, la interacción gravitatoria?
El elevado número de parámetros y la jerarquía de roturas requieren la introducción de un nuevo concepto: la "Supersimetría". En cuanto a la introducción de la interacción gravitatoria, este tema dará lugar a la teoría conocida con el nombre de "Supergravedad".
SUPERSIMETRIA
Los bosones, partículas con spin entero, y los fermiones, partículas con spin semientero. obedecen a estadísticas diferentes. En términos simples, dos fermiones no pueden estar en el mismo estado (caracterizado por valores determinados de los diferentes números cuánticos), y en cambio, para los bosones no existe tal restricción. Supongamos que existe una transformación, que llamaremos "Supersimetría", que pasa de un fermión a un bosón (y viceversa) con espines adyacentes. Así, a una partícula cualquiera le correspondería otra, que llamaremos su compañera supersimétrica.
A principios de la década de los setenta, esta transformación fue construida por diversos autores (Y.Golfand y E.Likhtman en 1971; P.Volkov y V.Akulov en 1973; J.Wess y B.Zumino en 1973), que propusieron Teorías Cuánticas de Campos que eran invariantes bajo dicha transformación. La Supersimetría se imponía como una simetría global, es decir, la misma transformación actúa en todo punto del espacio-tiempo. Los primeros cálculos en las teorías supersimétricas mostraron que gozaban de una gran virtud: no necesitaban sucesivos ajustes de los parámetros, es decir, resolvían el problema de la "jerarquía de roturas".
Así pues, lo que se hizo fue unir las ideas de Gran Unificación y Supersimetría, originando las teorías llamadas SUSY GUT. Uno de los primeros ejemplos que se construyeron fue el de un modelo invariante gauge bajo SU(5) y además, supersimétrico. Sin embargo, hay que añadir nuevas partículas para que hagan de "compañeras" de los bosones de Higgs, quarks, etc. Así, para el fotón se introducía el fotino, para la W+ el wino, para la Zº el zino, para los gluones los gluinos, para los quarks los squarks y para los leptones los sleptones.
El contenido de partículas ha aumentado en relación al SU(5) no supersimétrico, pero ¿seguirán haciéndose iguales las constantes de acoplamiento a una energía dada?. La respuesta es afirmativa, por lo que seguimos teniendo un modelo unificado y además supersimétrico. Las constantes de acoplamiento coinciden a una energía de 10 16 GeV, es decir, a una energía superior a la del caso no supersimétrico. Este modelo también predice de forma natural la desintegración del protón.
Sin embargo, las compañeras supersimétricas no han sido detectadas hasta ahora. El siguiente paso tendrá que ser, entonces, el de romper la Supersimetría, o sea, el permitir que una partícula y su compañera supersimétrica tengan diferente masa. La rotura, naturalmente, ha de ser realizada de forma tal que no se "estropeen" las virtudes de las Teorías Supersimétricas, como la que conducía a la resolución del problema de las jerarquías. Esta cuestión, unida a la mayor proximidad a 10 19 GeV de la escala de unificación de los modelos supersimétricos, hará que se incluya finalmente la gravitación, como veremos más adelante.
Aunque hasta la fecha las compañeras supersimétricas no han sido detectadas, se espera encontrar señales de ellas en los futuros aceleradores; de no ser así, todo el esquema basado en la Supersimetría estaría en serias dificultades. Se conjetura que las partículas compañeras estables podrían formar parte de la materia "oscura" del Universo.
A principios de la década de los setenta, esta transformación fue construida por diversos autores (Y.Golfand y E.Likhtman en 1971; P.Volkov y V.Akulov en 1973; J.Wess y B.Zumino en 1973), que propusieron Teorías Cuánticas de Campos que eran invariantes bajo dicha transformación. La Supersimetría se imponía como una simetría global, es decir, la misma transformación actúa en todo punto del espacio-tiempo. Los primeros cálculos en las teorías supersimétricas mostraron que gozaban de una gran virtud: no necesitaban sucesivos ajustes de los parámetros, es decir, resolvían el problema de la "jerarquía de roturas".
Así pues, lo que se hizo fue unir las ideas de Gran Unificación y Supersimetría, originando las teorías llamadas SUSY GUT. Uno de los primeros ejemplos que se construyeron fue el de un modelo invariante gauge bajo SU(5) y además, supersimétrico. Sin embargo, hay que añadir nuevas partículas para que hagan de "compañeras" de los bosones de Higgs, quarks, etc. Así, para el fotón se introducía el fotino, para la W+ el wino, para la Zº el zino, para los gluones los gluinos, para los quarks los squarks y para los leptones los sleptones.
El contenido de partículas ha aumentado en relación al SU(5) no supersimétrico, pero ¿seguirán haciéndose iguales las constantes de acoplamiento a una energía dada?. La respuesta es afirmativa, por lo que seguimos teniendo un modelo unificado y además supersimétrico. Las constantes de acoplamiento coinciden a una energía de 10 16 GeV, es decir, a una energía superior a la del caso no supersimétrico. Este modelo también predice de forma natural la desintegración del protón.
Sin embargo, las compañeras supersimétricas no han sido detectadas hasta ahora. El siguiente paso tendrá que ser, entonces, el de romper la Supersimetría, o sea, el permitir que una partícula y su compañera supersimétrica tengan diferente masa. La rotura, naturalmente, ha de ser realizada de forma tal que no se "estropeen" las virtudes de las Teorías Supersimétricas, como la que conducía a la resolución del problema de las jerarquías. Esta cuestión, unida a la mayor proximidad a 10 19 GeV de la escala de unificación de los modelos supersimétricos, hará que se incluya finalmente la gravitación, como veremos más adelante.
Aunque hasta la fecha las compañeras supersimétricas no han sido detectadas, se espera encontrar señales de ellas en los futuros aceleradores; de no ser así, todo el esquema basado en la Supersimetría estaría en serias dificultades. Se conjetura que las partículas compañeras estables podrían formar parte de la materia "oscura" del Universo.
SUPERGRAVEDAD
En 1915, Albert Einstein propuso su Teoría de la Relatividad General, una de las mayores aportaciones a la Física. Se puede considerar que es una Teoría geométrica del campo gravitatorio clásico, sin efectos cuánticos. En ella, la geometría del espacio-tiempo (tres dimensiones espaciales y una temporal), está determinada dinámicamente por los cuerpos que se encuentran en él; el espacio se curva, y el efecto neto de dicha curvatura es la atracción entre las masas.
Si partiendo de la Teoría de Einstein pretendemos desarrollar una Teoría Cuántica de la Gravitación, habrá que considerar, además de la constante de Newton "G" y la velocidad de la luz "c", la constante de Planck "h", que caracteriza los fenómenos cuánticos. Estas tres constantes permiten definir una masa (o energía) y una longitud, características de la interacción gravitatoria, que se llaman masa y longitud de Planck. En la Teoría Cuántica de la Gravitación, dos partículas subatómicas se atraerían mutuamente mediante el intercambio de un nuevo cuanto llamado "gravitón". Esta partícula mediadora de la interacción tendría un spin igual a 2, (es un bosón), y su masa sería nula. El gravitón no ha sido detectado experimentalmente. Cuando se llevan a cabo cálculos en dicha Teoría, los infinitos que aparecen no pueden ser eliminados mediante el proceso de renormalización, y la Teoría no es consistente.
Retomemos el camino desde otra perspectiva. Hemos visto que las G.U.T. pretenden la unificación de las tres interacciones fundamentales, excluida la gravedad. Si incluimos ésta, llegamos a las Teorías de Gran Unificación Supersimétricas. La incorporación de la gravitación a una teoría que unifique las tres interacciones fundamentales, se lleva a cabo haciendo que dicha teoría sea invariante bajo Supersimetría "local" (es decir, una transformación supersimétrica distinta en cada punto del espacio-tiempo). A la teoría invariante bajo Supersimetría local así resultante, y que unifique las cuatro interacciones fundamentales, se le llama "Supergravedad" (1976). Al gravitón le corresponderá un compañero supersimétrico llamado "gravitino", y cuyo spin será igual a 3/2. El gravitino, al igual que el gravitón, no ha sido detectado.
Desgraciadamente, y tras mucho trabajo, no se ha conseguido un Modelo de Supergravedad que sea renormalizable, es decir, consistente, y que pueda presentar un espectro realista de partículas a bajas energías. Por tanto, el problema de formular una Teoría Cuántica de la Gravitación que sea consistente, persiste. Más aún, no tiene visos de solución dentro de la Teoría Cuántica de Campos. Se necesita, pues, algo nuevo. El intento más reciente lo constituyen las Teorías de Cuerdas y Supercuerdas.
Si partiendo de la Teoría de Einstein pretendemos desarrollar una Teoría Cuántica de la Gravitación, habrá que considerar, además de la constante de Newton "G" y la velocidad de la luz "c", la constante de Planck "h", que caracteriza los fenómenos cuánticos. Estas tres constantes permiten definir una masa (o energía) y una longitud, características de la interacción gravitatoria, que se llaman masa y longitud de Planck. En la Teoría Cuántica de la Gravitación, dos partículas subatómicas se atraerían mutuamente mediante el intercambio de un nuevo cuanto llamado "gravitón". Esta partícula mediadora de la interacción tendría un spin igual a 2, (es un bosón), y su masa sería nula. El gravitón no ha sido detectado experimentalmente. Cuando se llevan a cabo cálculos en dicha Teoría, los infinitos que aparecen no pueden ser eliminados mediante el proceso de renormalización, y la Teoría no es consistente.
Retomemos el camino desde otra perspectiva. Hemos visto que las G.U.T. pretenden la unificación de las tres interacciones fundamentales, excluida la gravedad. Si incluimos ésta, llegamos a las Teorías de Gran Unificación Supersimétricas. La incorporación de la gravitación a una teoría que unifique las tres interacciones fundamentales, se lleva a cabo haciendo que dicha teoría sea invariante bajo Supersimetría "local" (es decir, una transformación supersimétrica distinta en cada punto del espacio-tiempo). A la teoría invariante bajo Supersimetría local así resultante, y que unifique las cuatro interacciones fundamentales, se le llama "Supergravedad" (1976). Al gravitón le corresponderá un compañero supersimétrico llamado "gravitino", y cuyo spin será igual a 3/2. El gravitino, al igual que el gravitón, no ha sido detectado.
Desgraciadamente, y tras mucho trabajo, no se ha conseguido un Modelo de Supergravedad que sea renormalizable, es decir, consistente, y que pueda presentar un espectro realista de partículas a bajas energías. Por tanto, el problema de formular una Teoría Cuántica de la Gravitación que sea consistente, persiste. Más aún, no tiene visos de solución dentro de la Teoría Cuántica de Campos. Se necesita, pues, algo nuevo. El intento más reciente lo constituyen las Teorías de Cuerdas y Supercuerdas.
TEORIA DE CUERDAS
El problema de la incorporación, de manera consistente, de la Gravitación Cuántica, quedaba sin resolver dentro del marco de la Teoría Cuántica de Campos, que describe objetos puntuales; abandonemos entonces los objetos puntuales e introduzcamos un nuevo objeto elemental que no sea puntual: la Cuerda, un objeto unidimensional. Mientras que en Teoría Cuántica de Campos el objeto elemental era puntual e indivisible, en Teoría de Cuerdas (TC´s) el objeto elemental es extenso y divisible.
La Teoría de Cuerdas se originó al final de la década de los 60, pero en su representación actual pertenece a los 80. En ella se introduce un único parámetro: la tensión de la cuerda "T", que está relacionada con la masa de Planck. La longitud de la cuerda será, por tanto, del orden de 10 -33 cm. Se necesitan 10 33 cuerdas, colocadas una a continuación de otra, para tener 1 cm de longitud. Si las distancias que consideramos son grandes comparadas con la longitud de Planck, veríamos las cuerdas como objetos puntuales: la Teoría de Cuerdas, entonces, a bajas energías se reducirá a una Teoría de Campos.
Las cuerdas pueden ser abiertas y cerradas (con los extremos unidos). ¿Cómo aparecen las partículas en este contexto? Las partículas son como los "sonidos" (o modos de vibración) que producen las cuerdas al vibrar. Una cuerda tiene un número infinito de modos de vibración y, por tanto, generaría una secuencia infinita de partículas de masas crecientes. Los estados fundamentales de vibración, es decir, los de mínima energía, se interpretan como los quarks, leptones y partículas mediadoras de interacción. El gravitón aparece como un estado fundamental de la cuerda cerrada. Como toda cuerda abierta puede convertirse en cerrada, uniendo sus extremos, la gravitación queda siempre automáticamente incorporada. A fin de no tener estados falsos o no físicos (partículas con masa imaginaria, llamadas taquiones), se tiene que introducir la Supersimetría en la Teoría; el objeto elemental se denomina, ahora, la supercuerda, y la teoría pasa a llamarse Teoría de Supercuerdas.
Los restantes modos de vibración, distintos de los fundamentales, corresponderían a partículas con masas iguales o mayores que la masa de Planck. Las cuerdas, al desplazarse en el espacio, describen una superficie; razones de consistencia de la Teoría exigen que esta superficie se encuentre en un espacio-tiempo de 10 dimensiones, nueve espaciales y una temporal. También por razones de consistencia, los grupos de simetría que aparecen han de ser unos muy determinados. Estos grupos contienen las simetrías del Modelo Estándar.
En 1984, este hecho, junto con las buenas propiedades de renormalizabilidad, impulsó la Teoría de Cuerdas de manera extraordinaria, de la mano (el talento) de M.Green y J.Schwarz. Sin embargo, si queremos que la Teoría tenga predicciones físicas a bajas energías, necesitamos: a) reducir el número de dimensiones del espacio-tiempo de diez a cuatro, en las que "parece" que vivimos, y b) desembarazarse de la excesiva simetría de los grupos privilegiados. Por otra parte, no existe una prueba definida de la renormalizabilidad de la Teoría de Cuerdas.
La complejidad matemática de las Teorías de Cuerdas reclama el concurso de conocimientos matemáticos muy especializados, como superficies de Riemann, geometría algebraica, teoría de números, etc. Las soluciones concretas son arduas de alcanzar. No existe, además, un principio fundamental que guíe la elección de una única Teoría de Cuerdas. A pesar de ello, las Cuerdas son una opción válida para la resolución del problema fundamental de la Gravitación Cuántica, que definitivamente carecía de solución en la Teoría Cuántica de Campos. Recordemos que una Teoría de Gravitación Cuántica debería satisfacer:
a) Incorporar de una manera consistente las cuatro interacciones fundamentales.
b) Depender de una única constante de acoplamiento.
c) Explicar los valores de las masas, constantes de acoplamiento (de las cuatro interacciones fundamentales a bajas energías), número de leptones y quarks, etc.
d) Explicar el origen de las simetrías observadas experimentalmente, reproduciendo así la Física de partículas elementales a bajas energías.
e) Predecir una constante cosmológica prácticamente nula. Dicha constante, introducida primero por Einstein para obtener un Universo estático y finito, describe la parte de la curvatura del Universo que no es causada por la materia. La constante cosmológica es menor o del orden de 10 -120.
La Teoría, y este es un punto esencial, debería estar formulada a partir de primeros principios. Un ejemplo clave, en el que esto ocurre, es el de la Relatividad General. En ella, Einstein partió de los principios de equivalencia (localmente, el efecto de la gravedad no se distingue del de la aceleración), y de covarianza general (invariancia bajo transformaciones generales de coordenadas). Ambos encontraron su expresión matemática en el lenguaje de la Geometría de Riemann, generalización de la euclídea de los espacios planos a los curvos, dando lugar a ecuaciones dinámicas.
La Teoría de Cuerdas se originó al final de la década de los 60, pero en su representación actual pertenece a los 80. En ella se introduce un único parámetro: la tensión de la cuerda "T", que está relacionada con la masa de Planck. La longitud de la cuerda será, por tanto, del orden de 10 -33 cm. Se necesitan 10 33 cuerdas, colocadas una a continuación de otra, para tener 1 cm de longitud. Si las distancias que consideramos son grandes comparadas con la longitud de Planck, veríamos las cuerdas como objetos puntuales: la Teoría de Cuerdas, entonces, a bajas energías se reducirá a una Teoría de Campos.
Las cuerdas pueden ser abiertas y cerradas (con los extremos unidos). ¿Cómo aparecen las partículas en este contexto? Las partículas son como los "sonidos" (o modos de vibración) que producen las cuerdas al vibrar. Una cuerda tiene un número infinito de modos de vibración y, por tanto, generaría una secuencia infinita de partículas de masas crecientes. Los estados fundamentales de vibración, es decir, los de mínima energía, se interpretan como los quarks, leptones y partículas mediadoras de interacción. El gravitón aparece como un estado fundamental de la cuerda cerrada. Como toda cuerda abierta puede convertirse en cerrada, uniendo sus extremos, la gravitación queda siempre automáticamente incorporada. A fin de no tener estados falsos o no físicos (partículas con masa imaginaria, llamadas taquiones), se tiene que introducir la Supersimetría en la Teoría; el objeto elemental se denomina, ahora, la supercuerda, y la teoría pasa a llamarse Teoría de Supercuerdas.
Los restantes modos de vibración, distintos de los fundamentales, corresponderían a partículas con masas iguales o mayores que la masa de Planck. Las cuerdas, al desplazarse en el espacio, describen una superficie; razones de consistencia de la Teoría exigen que esta superficie se encuentre en un espacio-tiempo de 10 dimensiones, nueve espaciales y una temporal. También por razones de consistencia, los grupos de simetría que aparecen han de ser unos muy determinados. Estos grupos contienen las simetrías del Modelo Estándar.
En 1984, este hecho, junto con las buenas propiedades de renormalizabilidad, impulsó la Teoría de Cuerdas de manera extraordinaria, de la mano (el talento) de M.Green y J.Schwarz. Sin embargo, si queremos que la Teoría tenga predicciones físicas a bajas energías, necesitamos: a) reducir el número de dimensiones del espacio-tiempo de diez a cuatro, en las que "parece" que vivimos, y b) desembarazarse de la excesiva simetría de los grupos privilegiados. Por otra parte, no existe una prueba definida de la renormalizabilidad de la Teoría de Cuerdas.
La complejidad matemática de las Teorías de Cuerdas reclama el concurso de conocimientos matemáticos muy especializados, como superficies de Riemann, geometría algebraica, teoría de números, etc. Las soluciones concretas son arduas de alcanzar. No existe, además, un principio fundamental que guíe la elección de una única Teoría de Cuerdas. A pesar de ello, las Cuerdas son una opción válida para la resolución del problema fundamental de la Gravitación Cuántica, que definitivamente carecía de solución en la Teoría Cuántica de Campos. Recordemos que una Teoría de Gravitación Cuántica debería satisfacer:
a) Incorporar de una manera consistente las cuatro interacciones fundamentales.
b) Depender de una única constante de acoplamiento.
c) Explicar los valores de las masas, constantes de acoplamiento (de las cuatro interacciones fundamentales a bajas energías), número de leptones y quarks, etc.
d) Explicar el origen de las simetrías observadas experimentalmente, reproduciendo así la Física de partículas elementales a bajas energías.
e) Predecir una constante cosmológica prácticamente nula. Dicha constante, introducida primero por Einstein para obtener un Universo estático y finito, describe la parte de la curvatura del Universo que no es causada por la materia. La constante cosmológica es menor o del orden de 10 -120.
La Teoría, y este es un punto esencial, debería estar formulada a partir de primeros principios. Un ejemplo clave, en el que esto ocurre, es el de la Relatividad General. En ella, Einstein partió de los principios de equivalencia (localmente, el efecto de la gravedad no se distingue del de la aceleración), y de covarianza general (invariancia bajo transformaciones generales de coordenadas). Ambos encontraron su expresión matemática en el lenguaje de la Geometría de Riemann, generalización de la euclídea de los espacios planos a los curvos, dando lugar a ecuaciones dinámicas.
sábado
TEORIA DE SUPERCUERDAS
Einstein, como otros físicos teóricos, pasaron y pasan gran parte de su vida, intentando alcanzar un prodigio científico que tal vez era y/o es imposible: unir la Teoría de la Relatividad con la la Mecánica Cuántica que describe el Universo a escala atómica. No logró Einstein su sueño de enlazar las leyes físicas del macrocosmos con las del microcosmos, ni tampoco, hasta ahora, lo han logrado otros muchos estudiosos, lo que se ha venido a convertir en una aspiración generalizada del estudio sobre el funcionamiento del Universo. La generalidad de los físicos teóricos buscan estructurar una gran unificación entre la Teoría de la Relatividad General y la Mecánica Cuántica.
La primera, comporta toda la capacidad necesaria para explicar los efectos de la fuerza gravitatoria sobre un espacio-tiempo curvo. Sin embargo, no se ha podido distinguir consecuencias precisas de las posibles fuerzas que actúen sobre una partícula, ya que ésta sigue, normalmente, una trayectoria inercial o toma el camino más corto posible, describiendo como una geodésica sobre el espacio-tiempo curvo. Por ello, explicar todas las fuerzas conocidas bajo el alero de una misma idea, un concepto, una sola teoría, representa la máxima aspiración que embarga a los científicos centrados en entender el total comportamiento de la Naturaleza. Muchos de ellos piensan que si ello se logra, también se habría dado término al camino que ha seguido, dentro de la humanidad, el desarrollo de la Física.
Dentro de los esfuerzos que se hacen para alcanzar esa tan anhelada unificación, aparecen nuevos intentos dentro del ámbito de las TC's, explorando sus posibilidades con vaivenes, avances y atolladeros, en medio de fuertes críticas de sus detractores. En los más de treinta años transcurridos desde su aparición, la teoría ha experimentado diferentes grados de apogeo, reconociéndose a dos de ellos como los de mayor relevancia: el que se dio en los años 1984-1985 y, el último, en 1994. A estos altos de actividad se les ha reconocido como períodos de primera y segunda revolución y, también a la teoría se le ha empezado a reconocer como Teoría de las Supercuerdas (TSC's). Pero en los últimos tiempos, se ha llegado a contar con nuevos instrumentos de ideas físico-matemáticas, que podrían otorgar un arrinconamiento definitivo de esta teoría o dar la clave para avanzar un paso decisivo en la unificación teórica de la Relatividad y la Mecánica Cuántica.
Las conclusiones a las que periódicamente llegan los adeptos a la TSC, se centran en el entusiasmo de proclamar que ésta otorga la única forma, hasta ahora, de poder contar en un futuro con una Teoría Cuántica consistente con la Gravedad. Como prácticamente todas las teorías de cuerdas, la TSC's comienza con el concepto de dimensiones adicionales de Kaluza-Klein y comporta una enorme complejidad muy difícil de comprender para los que no están directamente involucrados en sus modelos. Con ella se aspira a resolver el más enigmático problema matemático que comporta la Física teórica en los finales del siglo veinte: la incompatibilidad matemática de los pilares fundamentales de la Mecánica Cuántica con la Teoría de la Relatividad General.
Para comprender los fundamentos que conlleva la aspiración de resolver los aspectos incompatibles que nos presentan la Relatividad General y la Mecánica Cuántica, podemos recurrir a un ejemplo que aclarará qué clase de dificultades plantea la combinación de ambas. El punto de partida de la Relatividad General es el "principio de equivalencia": un campo gravitatorio local es indiferenciable de un movimiento acelerado. Si estuviéramos en el espacio exterior en un cohete en aceleración uniforme, nos veríamos atraídos hacia el suelo como si en el cohete existiese un verdadero campo gravitatorio (como si el cohete se hallase en la superficie de un planeta).
Einstein reconocía, en este principio de equivalencia, que la presencia de un campo gravitatorio local es sólo un símil de si un observador está acelerando o no; es decir, depende del sistema de coordenadas con que decida medir su movimiento. Por ejemplo, si eligiéramos para el sistema de coordenadas el cohete en aceleración, es factible considerar que habría un campo gravitatorio, pero en un sistema de coordenadas que no esté en aceleración no habrá ninguno. Pero las leyes matemáticas fundamentales de la Física deberían ser iguales para todos los observadores, independiente de que el observador esté acelerando o no con respecto a otro. Si no, las leyes fundamentales dependerían de la elección arbitraria por un observador de un sistema de coordenadas determinante, y ese tipo de arbitrariedad no debería darse en las leyes fundamentales.
Este principio de "invariancia coordinada general" se halla incorporado a la Teoría de la Relatividad General. A este respecto, va más lejos de la primera Teoría de la Relatividad Especial de Einstein que sólo exigía que las leyes matemáticas de la Física tuviesen la misma forma para observadores que estuvieran moviéndose de manera uniforme en relación los unos con los otros: un movimiento a una velocidad constante.
Según la teoría relativista del campo cuántico, un campo de gravedad constante crea un baño radiante de partículas cuánticas, como los fotones, a una temperatura determinada. Sería como estar dentro de un horno (por suerte, esta temperatura es muy baja en la fuerza de gravedad de la Tierra). Pero el principio de equivalencia entraña que un campo gravitatorio es lo mismo que una aceleración. En consecuencia, un observador en aceleración ve un baño de partículas cuánticas creadas por el campo gravitatorio, mientras que el que está inmóvil no lo ve. Se altera, por tanto, la idea misma de creación y destrucción de partículas cuánticas. No está claro lo que quedará del concepto "partícula cuántica" en la Relatividad General, pero en la actualidad este concepto es esencial para la visión que tienen los físicos del micromundo.
Los dominios usuales de la Relatividad General y de la Mecánica Cuántica son diferentes. La Relatividad General comporta la capacidad de describir la gravedad aplicada para objetos grandes, masivos, como estrellas, galaxias, agujeros negros, estructuras cosmológicas, y el propio Universo. Con respecto a la Mecánica Cuántica, ésta se centra en describir lo minúsculo, las estructuras pequeñas del Universo, tales como electrones quarks, etc. Por lo tanto, cuando requerimos de la Física conocer los diferentes aspectos relacionados con la Naturaleza, recurrimos indistintamente a la Relatividad General o a la Mecánica Cuántica para una comprensión teórica, claro que, de forma independiente. Sin embargo, cuando queremos conocer razones de comportamiento de aspectos naturales que demandan explicaciones más rigurosas y profundas, hasta ahí llegamos, ya que normalmente se requiere la participación de ambas para lograr un tratamiento teórico apropiado; se nos acaba la gasolina intelectual y se estrangula la capacidad computacional preexistente.
Comprender los escenarios del espacio-tiempo, las singularidades de los agujeros negros, o simplemente, el estado del Universo primario antes de la gran explosión, corresponde a una muestra concreta de lo anteriormente descrito. Son estructuras físicas exóticas que requieren, por un lado, involucrar escalas masivas enormes (Relatividad General) y, por otro, escalas de distancias diminutas (Mecánica Cuántica). Desafortunadamente, la Relatividad General y la Mecánica Cuántica son, en alguna medida, incompatibles: cualquier cálculo que se intente realizar usando simultáneamente ambas herramientas genera respuestas absurdas. Esta situación queda en clara evidencia cuando se intenta estimar matemáticamente la interacción de partículas en trazados cortos, como los que se dan en lo que se llama la escala de Planck, 10-33cm. Con la Teoría de las Supercuerdas se pretende resolver el profundo problema que acarrea la incompatibilidad descrita de estas dos teorías a través de la modificación de propiedades de la Relatividad General cuando es aplicada en escalas superiores a la de Planck.
La TSC's levanta su tesis sosteniendo la premisa de que los elementos fundamentales de la materia no son correctamente descritos cuando sólo determinamos configuraciones de objetos puntuales, ya que si se llevaran a distancias de un radio aproximado a la escala de Planck, entonces parecerían como minúsculos apiñamientos de bucles de pequeñas cuerdas. Los aceleradores de partículas modernos están lejos de poder probar eso. Sin embargo, la hipótesis de la TSC's sostiene que la configuración que adquiriría la materia de pequeñísimos rizos o bucles cuando interactúan en cortísimas escalas de distancia, haría que ésta presentase un comportamiento drásticamente distinto al que hasta ahora hemos logrado observar. Ello sería lo que permitiría a la Gravedad y a la Mecánica Cuántica constituir una unión armónica.
En la TSC's se propugna que las sesenta y dos partículas elementales, que muchos de nosotros tradicionalmente consideramos, indivisibles y que vienen a ser como puntos en el espacio, se transforman en la TSC's en objetos extensos, pero no como esferitas, sino más bien como cuerdas. Se consideran como restos en forma de rizo o bucle del Cosmos primitivo, tan masivas que un trocito de un centímetro de largo y una trillonésima del grueso de un protón pesarían tanto como una cordillera. Se cree que estos hipotéticos objetos se crearon durante las llamadas transiciones de fases, períodos críticos en los cuales el Universo sufrió un cambio análogo a la forma en que el agua se convierte en hielo o vapor. La primera transición de fase ocurrió una minúscula fracción de segundo después del Big Bang. Cuando el Universo primitivo se enfrió, pasó de un estado de pura energía a uno de energía y materia. La materia se condensó y nació a la existencia y, durante otras transiciones posteriores, procesos similares separaron fuerzas como la nuclear fuerte y la nuclear débil una de otra. A cada estadio, transiciones irregulares pudieron haber creado fallas en el espaciotiempo. Dentro de estos defectos, el espacio-tiempo retuvo las fuerzas y la materia de la fase anterior.
La premisa básica de la Teoría de las Supercuerdas es aquella que considera la descripción de la materia y el espacio-tiempo, a escala de Planck, un profundo entretejido. Una descripción sucinta de ello es aquella que contempla un objeto extendido igual que una cuerda (cuerda abierta) u otro que puede cerrarse (cuerda cerrada). Son objetos que se propagan por el espacio de fondo y al hacerlo generan una superficie llamada "hoja de mundo". Los objetos básicos son las cuerdas y la teoría para ellos introduce una constante (de acoplamiento) fundamental, la cual es proporcional al inverso de la tensión de la cuerda. En general, las TC's han vivido muchos altibajos y, se puede decir que, a principios de la década de los setenta, éstas, prácticamente, se encontraban casi en el olvido.
En 1974, J.H. Schwarz y J. Scherk, por casualidad, observaron que las teorías proveían un estado de la cuerda con un acoplamiento tal, que el límite puntual correspondía precisamente con el de la Relatividad General de Einstein. Ello fue lo que sugirió a muchos físicos que las Teorías de Cuerdas podrían comportar las cualidades esenciales para transformarse en una teoría de unificación de las cuatro fuerzas de interacción que conocemos hasta ahora de la Naturaleza, incluyendo a la gravedad.
La síntesis de todos estos resultados se realizó en 1983, quedando finalmente estructurados en la formulación de lo que hoy se conoce como Teoría de las Supercuerdas (TSC's). Lo sintetizado en ello no tuvo nada de trivial, ya que corresponde a aproximadamente quince años de trabajo. Una teoría de la Naturaleza que contenga el requisito de fundamental, debe estar correlacionada con ambos tipos de partículas, fermiones y bosones. Cuando se incluyen fermiones en la Teoría de Cuerdas como la llamada "hoja del mundo", aparece siempre la necesidad de tener que llegar, en los distintos trabajos de cálculos, a determinar la posible existencia de un nuevo tipo de simetría llamada Supersimetría para poder relacionar los bosones y fermiones.
En ese proceso de teorización, ambos tipos de partículas son agrupados en supermúltiplos que se relacionan bajo una simetría. Esto es lo que determina la razón del uso del superlativo "súper" para denominar a las nuevas TC's como Teoría de las Supercuerdas.
TEORIA DE SUPERCUERDAS II
Para que una Teoría de Supercuerdas pueda ser consistente con la Teoría del Campo Cuántico, requiere que el espacio-tiempo esté constituido por diez dimensiones; de no ser así, la teoría resulta inconsistente o anómala. Con diez dimensiones espacio-temporales, las anomalías son anuladas con precisión, liberando a la teoría para su consistencia. Claro está que el hecho de considerar a un espacio-tiempo con diez dimensiones, aparece como una contradicción con las observaciones de un espacio temporal de cuatro, pero no deja de ser interesante para la investigación sobre la naturaleza de nuestro Universo el indagar sobre la posibilidad de la viabilidad de una Física de diez dimensiones.
Ya en 1984, existían varias teorías de supercuerdas en 10 dimensiones. Pero todas estas teorías comportaban una serie de irregularidades anómalas. En ese mismo año 84, M.B. Green y J. Schwarz descubrieron un método para anular las anomalías de Yang-Mills, las gravitacionales y los infinitos, al que se le llamó mecanismo de Green-Schwarz, liberando con ello a tres teorías que mostraban inconsistencia. Estas fueron la Tipo I (con grupo de norma SO(32)), Tipo IIA, y Tipo IIB.
Por otra parte, en 1984, se presentaron dos nuevas teorías a las que se les llamó heteróticas y que satisfacían el mecanismo de Green-Schwarz, con grupo de norma SO(32), y E8 x E8. Fueron propuestas por J. Gross, J.A. Harvey, E. Martinec y R. Rhom. Luego se logró identificar a la heterótica E8 x E8, gracias a los aportes de P. Candelas, G.T. Horowitz y A. Strominger, como la candidata más prometedora para constituirse en una teoría que unificara a las interacciones fundamentales, incorporando en forma natural a la gravedad de la Relatividad General. En este procesos, se logró diseñar, dentro de los límites de baja energía, una teoría que se asemeja bastante a las GUT's, pero con la ventaja de que, muchas de las propiedades, tales como el número de generaciones de leptones y quarks, el origen del "sabor", etc. son deducidos por la teoría en diez dimensiones a través de un mecanismo de compactificación de seis de las diez dimensiones. Resumiendo, podemos señalar que es posible contabilizar la existencia de cinco Teorías de Supercuerdas que serían consistentes conteniendo la gravedad: I, IIA, IIB, Het (SO(32)), y Het (E8 x E8) y que a partir de éstas se llegaría a la obtención de una gran teoría unificada.
1. Tipo I SO(32):
Se trata de uno de los modelos teóricos de las Supercuerdas estructurado con cuerdas abiertas. Tiene una Supersimetría uno ( N = 1) con diez dimensiones. Las cuerdas abiertas transportan grados gauges libres en su puntas comas o finales. Esta teoría está compelida a correlacionarse, exclusivamente, con el tipo SO(32) de la teoría gauge para anular las perturbaciones o anomalías. Contiene D-comas o D-branes con 1, 5 y 9 dimensiones espaciales.
Tipo IIA:
Esta es una Teoría de Supercuerdas desarrollada con cuerdas cerradas y que tiene dos (N = 2) supersimetrías en diez dimensiones. Inserta dos gravitinos (teóricas partículas supercompañeras del gravitón) que se mueven en sentido opuesto en las cuerdas cerradas de la hoja del mundo, con oposiciones a las chirales (no es una teoría chiral) bajo diez dimensiones del grupo de Lorentz. No se inserta en el grupo de las gauges. Tiene D-comas con 0, 2, 4, 6, y ocho dimensiones espaciales.
Tipo IIB:
Esta se trata de una teoría semejante a la descrita anteriormente, o sea, con cuerdas cerradas e idéntica Supersimetría. Sin embargo, en este caso, los dos gravitinos tienen los mismos chirales bajo diez dimensiones del grupo de Lorentz, o sea, es una teoría chiral. También no es gauge, pero contiene D-comas con -1, 1, 3, 5, y 7 dimensiones espaciales.
2. SO(32) Heterótica:
Se trata de un modelo teórico fundamentado con cuerdas cerradas, en que los campos de la hoja del mundo se mueven en una dirección con Supersimetría y, en la dirección opuesta, sin ese tipo de simetría. El resultado es una supersimetría N = 1 en diez dimensiones. Los campos sin Supersimetría, constituyen los vectores sin masa de los bosones; en consecuencia, se trata de una teoría que requiere de una simetría gauge SO(32) para anular las perturbaciones.
E8 x E8 Heterótica:
Esta teoría es idéntica a la descrita precedentemente, excepto que corresponde al grupo E8 x E8 de las gauges que, junto con el SO(32), son los únicos permitidos para anular las perturbaciones o anomalías.
Vemos que ambas teorías heteróticas no contienen D-comas. Sin embargo, contienen un solitón 5-comas o "fivebrane" que no corresponde a un D-comas. Este 5-comas generalmente se le llama el fivebrane de Neveu-Schwarz o del NS.
De las cinco Teorías de Supercuerdas que hemos descrito, hasta el año 1995 la heterótica E8 x E8 fue considerada la más prometedora para describir la Física más allá del Modelo Estándar. Descubierta en 1987 por Gross, Harvey, Martinec, y Rohm, fue considerada, por mucho tiempo, como la única Teoría de Cuerdas que podría llegar a describir nuestro Universo. Se pensaba así debido a que el grupo gauge del Modelo Estándar SU(3) x SU(2) x U(1) se puede insertar con facilidad dentro del grupo gauge E8. La materia bajo el otro E8 no podría interaccionar sin la participación de la gravedad, lo que abría la posibilidad de encontrar una mejor explicación en Astrofísica sobre el fenómeno de la materia oscura. Por otra parte, las cinco Teorías de Supercuerdas estaban definidas perturbativamente, esto es, válidas sólo para diminutos valores de una constante fundamental llamada "e". Problemas propiamente endógenos de la Teoría dificultaban sustancialmente cualquier tipo de predicciones de cantidades físicas que pudieran ser contrastadas con experimentos en aceleradores.
Sin embargo, tal como ya lo hemos reconocido, se trata de una teoría que provee un marco conceptual rico para predecir la estructura matemática del Modelo Estándar, una simetría llamada "supersimetría" y la Teoría Cuántica de la Gravedad. Recordemos que la Supersimetría es una simetría entre partículas cuánticas que surge como la materia y las partículas que transportan la interacción. Se espera buscarla con nuevos aceleradores que recientemente han empezado a operar o que se tiene proyectado hacerlo en el futuro, y su descubrimiento es de importancia medular para la solución de algunos problemas teóricos presentes en el Modelo Estándar.
En la TSC's se sostiene que las cuerdas son objetos unidimensionales extendidos que evolucionan en el espacio-tiempo. Pero esta evolución sólo se hace consistente en 10 dimensiones o más, apuntando uno de los aspectos más sorprendentes de la teoría. Las cuerdas forman rizos o bucles y/o se extienden hasta el infinito, vibrando con un ritmo que envía olas ondulantes de gravedad a través del espacio. Puesto que las cuerdas cortas oscilan rápidamente, disipando su energía en unos cuantos millones de años, sólo las cuerdas más largas, con poderosos índices de oscilación, serían los fósiles que todavía seguirían a nuestro alrededor. Pero serían las ya hace tiempo desaparecidas cuerdas cortas las causantes primarias de la creación de los cúmulos de galaxias que hoy observamos.
El inconveniente más serio que se presentaba permanentemente en las Teorías de Cuerdas y también en la TSC's, era la dificultad que se tenía, y que aún persiste, para hacer cálculos más precisos. Pero ello, en los últimos años, han venido siendo abordadas con la creación de un conjunto de nuevas herramientas que han permitido soslayar, en alguna medida, las limitaciones matemáticas de la teoría. Estas herramientas son las que se conocen como "dualidad", que se trata de la inserción en las ecuaciones de la Teoría de las Supercuerdas de un cierto tipo de simetría.
Hasta ahora, sólo queda esperar para ver si los nuevos modelos matemáticos cumplen un papel semejante al que sucedió con el que, finalmente, se aplicó para desarrollar antimateria y, con ello, hacer posible predicciones verificables en forma experimental para la Teoría de las Supercuerdas. Podemos concebir que algunos aspectos de la teoría no se encuentran alejados de los ya experimentados, ya que hay que tener presente que en las observaciones astrofísicas es posible comprobar teorías de partículas. Para ello, basta recordar que lo que hoy día se ve del Universo es el la radiografía del pasado y aquí se nos da una forma de poder abordar la TSC, ya que si pensamos en el Universo retrospectivamente hacia el estado en que las densidades y las energías son cada vez mayores, se llega a un momento en que todas las predicciones de la Teoría de las Supercuerdas se convierten en importantes. En este sentido, el Universo es un laboratorio de una gran eficiencia experimental para comprobar teorías.
Se supone que el Big Bang, que dio origen al Universo, distribuyó la materia regularmente a través del espacio. De lo anterior tenemos pruebas en la radiación cósmica de fondo que nos llega con igual intensidad desde todas direcciones. Pero el quid de la cuestión es que las evidencias observacionales también revelan una gran grumosidad del Universo: galaxias y cúmulos de galaxias parecen producirse en la superficie de interconectados vacíos parecidos a burbujas. ¿Cómo es que las Supercuerdas fueron, entonces, capaces de generar esas estructuras observadas a gran escala?. Una hipótesis propugna que la materia en el Universo primitivo, sin rasgos distintivos, se coaguló alrededor de las Supercuerdas, atraída por su poderosa gravedad. Otra idea opuesta a esa hipótesis es de que la presión de la radiación electromagnética de las Cuerdas empujó lejos a la materia. Si las Cuerdas fueron el andamiaje subyacente sobre el que se construyó el Universo, podrían hallarse pruebas indirectas de su existencia en las observaciones de tipos específicos de lentes gravitacionales. Otra prueba, menos fácil de encontrar, sería el susurro que dejan atrás las ondas de gravedad junto a esos hoy desaparecidos perfiles cósmicos.
Aunque muchos de los físicos que han trabajado con las Supercuerdas subrayan que con ellas se podría llegar a alcanzar una descripción completa de las fuerzas fundamentales de la Naturaleza, no obstante señalan que quedarían muchísimas preguntas científicas sin contestar. En principio, una teoría del Universo microscópico es responsable de las propiedades físicas de otros aspectos observables, pero en la práctica, y tan sólo hablando de funciones del pensamiento experimental, es imposible matemáticamente pasar de una a otra, ya que se requeriría un poder de computación inimaginable, incluso con ordenadores de dentro de cien años.
Sin embargo, existen otros teóricos que han visto en ella la posibilidad de contar con una herramienta que les permita, ahora, conseguir avanzar hacia una descripción unificada de todas las fuerzas del Universo y de todas las partículas elementales que dan forma a la materia, de manera que se pudiera formular una "Teoría del Todo". Unificación ésta que, en el mundo de la Física, es la máxima aspiración de la generalidad de los científicos. Creemos que tiene que existir esta unificación porque se ha unificado la Radiactividad con el Electromagnetismo en la Teoría Electrodébil dentro del marco de una confirmación experimental. Pero está por ver si son las Supercuerdas el camino correcto o seguirá siendo necesario seguir desarrollando otros campos de investigación o, por último, asumir la decisión de reformular teorías que por sus aciertos generales, especialmente en lo macrocósmico, han sido ritualizadas y, quizás también, causantes de un encapsulamiento en la evolución de la Física teórica.
Para poder explicarnos el Universo observable, además de las ecuaciones que describen el Universo microscópico, se requieren conocer las condiciones iniciales y, tan solo entonces, podríamos empezar a entender cuáles han sido los pasos de su evolución. ¿Serán las Supercuerdas las que logren ese objetivo? Por ahora, no se ve nada claro que se pueda estructurar una teoría de las condiciones iniciales. No se observa que podamos tener la capacidad como para explicar todo lo sucedido o deducir matemáticamente todo lo acontecido. La Tierra existe y nosotros estamos en ella, pero ello no lo podemos explicar a partir de un principio, ya que para ello solamente contamos con herramientas probabilísticas, como es el caso de la Mecánica Cuántica.
Ya en 1984, existían varias teorías de supercuerdas en 10 dimensiones. Pero todas estas teorías comportaban una serie de irregularidades anómalas. En ese mismo año 84, M.B. Green y J. Schwarz descubrieron un método para anular las anomalías de Yang-Mills, las gravitacionales y los infinitos, al que se le llamó mecanismo de Green-Schwarz, liberando con ello a tres teorías que mostraban inconsistencia. Estas fueron la Tipo I (con grupo de norma SO(32)), Tipo IIA, y Tipo IIB.
Por otra parte, en 1984, se presentaron dos nuevas teorías a las que se les llamó heteróticas y que satisfacían el mecanismo de Green-Schwarz, con grupo de norma SO(32), y E8 x E8. Fueron propuestas por J. Gross, J.A. Harvey, E. Martinec y R. Rhom. Luego se logró identificar a la heterótica E8 x E8, gracias a los aportes de P. Candelas, G.T. Horowitz y A. Strominger, como la candidata más prometedora para constituirse en una teoría que unificara a las interacciones fundamentales, incorporando en forma natural a la gravedad de la Relatividad General. En este procesos, se logró diseñar, dentro de los límites de baja energía, una teoría que se asemeja bastante a las GUT's, pero con la ventaja de que, muchas de las propiedades, tales como el número de generaciones de leptones y quarks, el origen del "sabor", etc. son deducidos por la teoría en diez dimensiones a través de un mecanismo de compactificación de seis de las diez dimensiones. Resumiendo, podemos señalar que es posible contabilizar la existencia de cinco Teorías de Supercuerdas que serían consistentes conteniendo la gravedad: I, IIA, IIB, Het (SO(32)), y Het (E8 x E8) y que a partir de éstas se llegaría a la obtención de una gran teoría unificada.
1. Tipo I SO(32):
Se trata de uno de los modelos teóricos de las Supercuerdas estructurado con cuerdas abiertas. Tiene una Supersimetría uno ( N = 1) con diez dimensiones. Las cuerdas abiertas transportan grados gauges libres en su puntas comas o finales. Esta teoría está compelida a correlacionarse, exclusivamente, con el tipo SO(32) de la teoría gauge para anular las perturbaciones o anomalías. Contiene D-comas o D-branes con 1, 5 y 9 dimensiones espaciales.
Tipo IIA:
Esta es una Teoría de Supercuerdas desarrollada con cuerdas cerradas y que tiene dos (N = 2) supersimetrías en diez dimensiones. Inserta dos gravitinos (teóricas partículas supercompañeras del gravitón) que se mueven en sentido opuesto en las cuerdas cerradas de la hoja del mundo, con oposiciones a las chirales (no es una teoría chiral) bajo diez dimensiones del grupo de Lorentz. No se inserta en el grupo de las gauges. Tiene D-comas con 0, 2, 4, 6, y ocho dimensiones espaciales.
Tipo IIB:
Esta se trata de una teoría semejante a la descrita anteriormente, o sea, con cuerdas cerradas e idéntica Supersimetría. Sin embargo, en este caso, los dos gravitinos tienen los mismos chirales bajo diez dimensiones del grupo de Lorentz, o sea, es una teoría chiral. También no es gauge, pero contiene D-comas con -1, 1, 3, 5, y 7 dimensiones espaciales.
2. SO(32) Heterótica:
Se trata de un modelo teórico fundamentado con cuerdas cerradas, en que los campos de la hoja del mundo se mueven en una dirección con Supersimetría y, en la dirección opuesta, sin ese tipo de simetría. El resultado es una supersimetría N = 1 en diez dimensiones. Los campos sin Supersimetría, constituyen los vectores sin masa de los bosones; en consecuencia, se trata de una teoría que requiere de una simetría gauge SO(32) para anular las perturbaciones.
E8 x E8 Heterótica:
Esta teoría es idéntica a la descrita precedentemente, excepto que corresponde al grupo E8 x E8 de las gauges que, junto con el SO(32), son los únicos permitidos para anular las perturbaciones o anomalías.
Vemos que ambas teorías heteróticas no contienen D-comas. Sin embargo, contienen un solitón 5-comas o "fivebrane" que no corresponde a un D-comas. Este 5-comas generalmente se le llama el fivebrane de Neveu-Schwarz o del NS.
De las cinco Teorías de Supercuerdas que hemos descrito, hasta el año 1995 la heterótica E8 x E8 fue considerada la más prometedora para describir la Física más allá del Modelo Estándar. Descubierta en 1987 por Gross, Harvey, Martinec, y Rohm, fue considerada, por mucho tiempo, como la única Teoría de Cuerdas que podría llegar a describir nuestro Universo. Se pensaba así debido a que el grupo gauge del Modelo Estándar SU(3) x SU(2) x U(1) se puede insertar con facilidad dentro del grupo gauge E8. La materia bajo el otro E8 no podría interaccionar sin la participación de la gravedad, lo que abría la posibilidad de encontrar una mejor explicación en Astrofísica sobre el fenómeno de la materia oscura. Por otra parte, las cinco Teorías de Supercuerdas estaban definidas perturbativamente, esto es, válidas sólo para diminutos valores de una constante fundamental llamada "e". Problemas propiamente endógenos de la Teoría dificultaban sustancialmente cualquier tipo de predicciones de cantidades físicas que pudieran ser contrastadas con experimentos en aceleradores.
Sin embargo, tal como ya lo hemos reconocido, se trata de una teoría que provee un marco conceptual rico para predecir la estructura matemática del Modelo Estándar, una simetría llamada "supersimetría" y la Teoría Cuántica de la Gravedad. Recordemos que la Supersimetría es una simetría entre partículas cuánticas que surge como la materia y las partículas que transportan la interacción. Se espera buscarla con nuevos aceleradores que recientemente han empezado a operar o que se tiene proyectado hacerlo en el futuro, y su descubrimiento es de importancia medular para la solución de algunos problemas teóricos presentes en el Modelo Estándar.
En la TSC's se sostiene que las cuerdas son objetos unidimensionales extendidos que evolucionan en el espacio-tiempo. Pero esta evolución sólo se hace consistente en 10 dimensiones o más, apuntando uno de los aspectos más sorprendentes de la teoría. Las cuerdas forman rizos o bucles y/o se extienden hasta el infinito, vibrando con un ritmo que envía olas ondulantes de gravedad a través del espacio. Puesto que las cuerdas cortas oscilan rápidamente, disipando su energía en unos cuantos millones de años, sólo las cuerdas más largas, con poderosos índices de oscilación, serían los fósiles que todavía seguirían a nuestro alrededor. Pero serían las ya hace tiempo desaparecidas cuerdas cortas las causantes primarias de la creación de los cúmulos de galaxias que hoy observamos.
El inconveniente más serio que se presentaba permanentemente en las Teorías de Cuerdas y también en la TSC's, era la dificultad que se tenía, y que aún persiste, para hacer cálculos más precisos. Pero ello, en los últimos años, han venido siendo abordadas con la creación de un conjunto de nuevas herramientas que han permitido soslayar, en alguna medida, las limitaciones matemáticas de la teoría. Estas herramientas son las que se conocen como "dualidad", que se trata de la inserción en las ecuaciones de la Teoría de las Supercuerdas de un cierto tipo de simetría.
Hasta ahora, sólo queda esperar para ver si los nuevos modelos matemáticos cumplen un papel semejante al que sucedió con el que, finalmente, se aplicó para desarrollar antimateria y, con ello, hacer posible predicciones verificables en forma experimental para la Teoría de las Supercuerdas. Podemos concebir que algunos aspectos de la teoría no se encuentran alejados de los ya experimentados, ya que hay que tener presente que en las observaciones astrofísicas es posible comprobar teorías de partículas. Para ello, basta recordar que lo que hoy día se ve del Universo es el la radiografía del pasado y aquí se nos da una forma de poder abordar la TSC, ya que si pensamos en el Universo retrospectivamente hacia el estado en que las densidades y las energías son cada vez mayores, se llega a un momento en que todas las predicciones de la Teoría de las Supercuerdas se convierten en importantes. En este sentido, el Universo es un laboratorio de una gran eficiencia experimental para comprobar teorías.
Se supone que el Big Bang, que dio origen al Universo, distribuyó la materia regularmente a través del espacio. De lo anterior tenemos pruebas en la radiación cósmica de fondo que nos llega con igual intensidad desde todas direcciones. Pero el quid de la cuestión es que las evidencias observacionales también revelan una gran grumosidad del Universo: galaxias y cúmulos de galaxias parecen producirse en la superficie de interconectados vacíos parecidos a burbujas. ¿Cómo es que las Supercuerdas fueron, entonces, capaces de generar esas estructuras observadas a gran escala?. Una hipótesis propugna que la materia en el Universo primitivo, sin rasgos distintivos, se coaguló alrededor de las Supercuerdas, atraída por su poderosa gravedad. Otra idea opuesta a esa hipótesis es de que la presión de la radiación electromagnética de las Cuerdas empujó lejos a la materia. Si las Cuerdas fueron el andamiaje subyacente sobre el que se construyó el Universo, podrían hallarse pruebas indirectas de su existencia en las observaciones de tipos específicos de lentes gravitacionales. Otra prueba, menos fácil de encontrar, sería el susurro que dejan atrás las ondas de gravedad junto a esos hoy desaparecidos perfiles cósmicos.
Aunque muchos de los físicos que han trabajado con las Supercuerdas subrayan que con ellas se podría llegar a alcanzar una descripción completa de las fuerzas fundamentales de la Naturaleza, no obstante señalan que quedarían muchísimas preguntas científicas sin contestar. En principio, una teoría del Universo microscópico es responsable de las propiedades físicas de otros aspectos observables, pero en la práctica, y tan sólo hablando de funciones del pensamiento experimental, es imposible matemáticamente pasar de una a otra, ya que se requeriría un poder de computación inimaginable, incluso con ordenadores de dentro de cien años.
Sin embargo, existen otros teóricos que han visto en ella la posibilidad de contar con una herramienta que les permita, ahora, conseguir avanzar hacia una descripción unificada de todas las fuerzas del Universo y de todas las partículas elementales que dan forma a la materia, de manera que se pudiera formular una "Teoría del Todo". Unificación ésta que, en el mundo de la Física, es la máxima aspiración de la generalidad de los científicos. Creemos que tiene que existir esta unificación porque se ha unificado la Radiactividad con el Electromagnetismo en la Teoría Electrodébil dentro del marco de una confirmación experimental. Pero está por ver si son las Supercuerdas el camino correcto o seguirá siendo necesario seguir desarrollando otros campos de investigación o, por último, asumir la decisión de reformular teorías que por sus aciertos generales, especialmente en lo macrocósmico, han sido ritualizadas y, quizás también, causantes de un encapsulamiento en la evolución de la Física teórica.
Para poder explicarnos el Universo observable, además de las ecuaciones que describen el Universo microscópico, se requieren conocer las condiciones iniciales y, tan solo entonces, podríamos empezar a entender cuáles han sido los pasos de su evolución. ¿Serán las Supercuerdas las que logren ese objetivo? Por ahora, no se ve nada claro que se pueda estructurar una teoría de las condiciones iniciales. No se observa que podamos tener la capacidad como para explicar todo lo sucedido o deducir matemáticamente todo lo acontecido. La Tierra existe y nosotros estamos en ella, pero ello no lo podemos explicar a partir de un principio, ya que para ello solamente contamos con herramientas probabilísticas, como es el caso de la Mecánica Cuántica.
viernes
AUTOORGANIZACION
La mayoría de los expertos piensan que la síntesis orgánica que condujo a la vida tardó relativamente poco tiempo en producirse a partir del momento en que la Tierra tuvo corteza, y que fue una reacción química autosostenida como consecuencia de un proceso de autoorganización en los componentes químicos que se daban en la Tierra en esa época.
Es posible imaginar que pudieran haber tenido lugar varios inicios frustrados hasta que finalmente, cuando bajó la frecuencia de los impactos de meteoritos que bombardeaban continuamente la Tierra, ya se pudo afianzar un modo de vida que prosperó hasta la que hoy conocemos. Los químicos no pueden (todavía) fabricar la vida en el laboratorio a partir de materia inerte, pero es que no se puede pretender simular experimentalmente en unos años, o unas décadas, aquello que la Naturaleza ha tardado millones de años en fabricar. Los resultados obtenidos demuestran que la generación de moléculas biológicas en unas condiciones de medio ambiente geológico favorable ha sido posible. El paso de moléculas biológicas cada vez más complejas al primer organismo vivo está aún por descubrir.
Después de los trabajos de Darwin y Pasteur, el pensamiento racionalista intentó aplicar el concepto de evolución a la materia inerte. Comenzó a esbozarse una teoría evolucionista del origen de la vida que suponía que no existía diferencia fundamental entre lo inerte y lo vivo. La materia viva sería el fruto de largos procesos químicos, una larga evolución química que habría precedido a la evolución biológica. Oparin, por un lado, y Haldane, por otro, suponen que la vida apareció en la Tierra en un medio rico en materias orgánicas y desprovisto de oxígeno. Esta teoría está en la base de los argumentos que actualmente se barajan para explicar el origen de la vida.
Es posible imaginar que pudieran haber tenido lugar varios inicios frustrados hasta que finalmente, cuando bajó la frecuencia de los impactos de meteoritos que bombardeaban continuamente la Tierra, ya se pudo afianzar un modo de vida que prosperó hasta la que hoy conocemos. Los químicos no pueden (todavía) fabricar la vida en el laboratorio a partir de materia inerte, pero es que no se puede pretender simular experimentalmente en unos años, o unas décadas, aquello que la Naturaleza ha tardado millones de años en fabricar. Los resultados obtenidos demuestran que la generación de moléculas biológicas en unas condiciones de medio ambiente geológico favorable ha sido posible. El paso de moléculas biológicas cada vez más complejas al primer organismo vivo está aún por descubrir.
Después de los trabajos de Darwin y Pasteur, el pensamiento racionalista intentó aplicar el concepto de evolución a la materia inerte. Comenzó a esbozarse una teoría evolucionista del origen de la vida que suponía que no existía diferencia fundamental entre lo inerte y lo vivo. La materia viva sería el fruto de largos procesos químicos, una larga evolución química que habría precedido a la evolución biológica. Oparin, por un lado, y Haldane, por otro, suponen que la vida apareció en la Tierra en un medio rico en materias orgánicas y desprovisto de oxígeno. Esta teoría está en la base de los argumentos que actualmente se barajan para explicar el origen de la vida.
¿QUE ES LA VIDA?
Pero, ¿qué es la vida?. Desde un principio, las ideas han estado encuadradas en dos teorías opuestas: las materialistas o mecanicistas, que suponen que la vida es el resultado de una organización compleja de la materia, y las vitalistas o finalistas, que proponen que la vida tiene su origen en una fuerza superior que insufla a los seres un principio vital, que en el caso del hombre se identifica con el alma. Los primeros defensores de estas dos teorías fueron los filósofos griegos Demócrito de Abdera (470-380 a.C.), y Aristóteles (384-322 a.C.). El primero suponía que toda la materia, incluida la vida, estaba formada por diminutas partículas llamadas átomos; la vida era debida a que los seres que la poseían disponían de un tipo especial de átomos redondeados que, dispersos por todo el organismo, les proporcionaba las características vitales.
Totalmente opuesto a esta teoría, Aristóteles mantenía que los seres vivos estaban compuestos de idénticos elementos que la materia inerte, pero que además poseían una fuerza o principio vital concedido por un ser superior. Este principio vital era inmortal, no teniendo la vida fin en sí misma, sino en función de su Creador. Desde entonces, la polémica entre materialismo y vitalismo ha sido una constante histórica, influida más por doctrinas filosóficas y religiosas que por un estricto pensamiento científico.
Una definición completa de vida procedente de la Biología Molecular sostiene que la vida es una propiedad de los organismos que contienen información hereditaria reproducible, codificada en moléculas de ácido nucleico, y que metabolizan al controlar el ritmo de reacciones químicas utilizando catalizadores llamados enzimas. Más simplemente, los seres vivos son aquellos que poseen la capacidad de reproducirse y metabolizar sustancias, esto es, alimentarse.
Con esta última definición se evita hacer alusión a los ácidos nucleicos, ya que cabría dentro de lo posible la existencia de vida en alguna región del Universo que no dependa de estas moléculas.
Totalmente opuesto a esta teoría, Aristóteles mantenía que los seres vivos estaban compuestos de idénticos elementos que la materia inerte, pero que además poseían una fuerza o principio vital concedido por un ser superior. Este principio vital era inmortal, no teniendo la vida fin en sí misma, sino en función de su Creador. Desde entonces, la polémica entre materialismo y vitalismo ha sido una constante histórica, influida más por doctrinas filosóficas y religiosas que por un estricto pensamiento científico.
Una definición completa de vida procedente de la Biología Molecular sostiene que la vida es una propiedad de los organismos que contienen información hereditaria reproducible, codificada en moléculas de ácido nucleico, y que metabolizan al controlar el ritmo de reacciones químicas utilizando catalizadores llamados enzimas. Más simplemente, los seres vivos son aquellos que poseen la capacidad de reproducirse y metabolizar sustancias, esto es, alimentarse.
Con esta última definición se evita hacer alusión a los ácidos nucleicos, ya que cabría dentro de lo posible la existencia de vida en alguna región del Universo que no dependa de estas moléculas.
FUNCIONES VITALES
El ser vivo lleva a cabo tres funciones "vitales": autoconservación, autorregulación y autorreproducción. Con la autoconservación obtiene y transforma la energía que precisa para realizar el resto de las funciones vitales. Con la autorregulación controla sus funciones; este control tiene lugar mediante una serie de reacciones químicas que se realizan en distintos órganos, y que le permiten adaptarse y relacionarse con el medio que le rodea. Con la autorreproducción, todo ser vivo es capaz de engendrar, de un modo u otro, nuevos seres semejantes a él, a los que transmite unos caracteres determinados.
Toda la materia que existe en la Naturaleza se encuentra dividida en una serie de peldaños jerárquicos, de manera que los elementos de cada uno de ellos están formados por la estructura organizada de un conjunto de elementos del nivel anterior. De menor a mayor grado de complejidad, podemos enumerar los siguientes: partículas elementales, átomos, moléculas, orgánulos, células, tejidos, órganos, sistemas de órganos, organismos independientes, poblaciones, comunidades, ecosistemas (comunidad de organismos que pueblan un ambiente determinado y que se relacionan entre sí), biomas (conjunto de ecosistemas que ocupa un amplio sector geográfico) y biosfera, entendido este último término como el conjunto de todos los seres vivos que existen en la Naturaleza más las condiciones ambientales que les rodean.
A partir de uno de estos niveles, los orgánulos, aparecen las funciones vitales características de los seres vivos. Esto significa que todo nivel organizativo que se encuentre por debajo de éste, posee el carácter de materia inerte, mientras que a partir del nivel orgánulo toda la materia existente en el Universo es considerada como materia viva. Así, por ejemplo, los virus no deben ser considerados como seres vivos. Estos agentes patógenos de tamaño ultramicroscópico, formados por un núcleo de ADN o ARN protegido por una cubierta proteica, no poseen actividad metabólica, no pueden traducir a proteínas su información genética, por lo que únicamente pueden sobrevivir y reproducirse si invaden una célula viva, de cuyos sistemas se benefician.
Toda la materia que existe en la Naturaleza se encuentra dividida en una serie de peldaños jerárquicos, de manera que los elementos de cada uno de ellos están formados por la estructura organizada de un conjunto de elementos del nivel anterior. De menor a mayor grado de complejidad, podemos enumerar los siguientes: partículas elementales, átomos, moléculas, orgánulos, células, tejidos, órganos, sistemas de órganos, organismos independientes, poblaciones, comunidades, ecosistemas (comunidad de organismos que pueblan un ambiente determinado y que se relacionan entre sí), biomas (conjunto de ecosistemas que ocupa un amplio sector geográfico) y biosfera, entendido este último término como el conjunto de todos los seres vivos que existen en la Naturaleza más las condiciones ambientales que les rodean.
A partir de uno de estos niveles, los orgánulos, aparecen las funciones vitales características de los seres vivos. Esto significa que todo nivel organizativo que se encuentre por debajo de éste, posee el carácter de materia inerte, mientras que a partir del nivel orgánulo toda la materia existente en el Universo es considerada como materia viva. Así, por ejemplo, los virus no deben ser considerados como seres vivos. Estos agentes patógenos de tamaño ultramicroscópico, formados por un núcleo de ADN o ARN protegido por una cubierta proteica, no poseen actividad metabólica, no pueden traducir a proteínas su información genética, por lo que únicamente pueden sobrevivir y reproducirse si invaden una célula viva, de cuyos sistemas se benefician.
MOLECULAS BIOLOGICAS
En la composición química de los orgánulos aparecen ya unas moléculas inexistentes en la materia inerte, las moléculas biológicas, que son las responsables de las características propias de todo ser vivo: son los hidratos de carbono, los lípidos, las proteínas y los ácidos nucleicos. Los hidratos de carbono o azúcares son compuestos cuyas moléculas están formadas exclusivamente por carbono, hidrógeno y oxígeno. Los más sencillos, como la glucosa o la ribosa, reciben el nombre de monosacáridos, y los más complejos, como el almidón o el glucógeno, polisacáridos. Su misión es proporcionar a los seres vivos la energía que necesitan. Los lípidos también están formados por carbono, hidrógeno y oxígeno, pero en distinta proporción que en los hidratos de carbono; los más importantes, las grasas, sirven como reserva alimenticia tanto a animales como a plantas.
Las proteínas son los componentes cuyas moléculas presentan una mayor variedad: en el cuerpo humano existen unas diez mil clases diferentes de moléculas de proteínas. Esta enorme variedad procede únicamente de una veintena de compuestos diferentes llamados aminoácidos, cuyas moléculas están formadas por carbono, nitrógeno, hidrógeno, oxígeno y en algunos casos, azufre. Los aminoácidos se unen mediante los llamados enlaces pépticos originando cadenas moleculares, generalmente de forma helicoidal, que son las distintas proteínas. La misión de las proteínas es aportar energía al organismo, aunque de forma mucho más específica que los hidratos de carbono, ya que cada tipo de célula en particular recibe un tipo distinto de proteínas.
Los ácidos nucleicos se localizan en el núcleo de la célula; son las más complejas de las moléculas biológicas y están formados por unidades más pequeñas llamadas nucleótidos. Existen dos tipos de ácidos nucleicos: el desoxirribonucleico (ADN) y el ribonucleico (ARN). El primero está formado por grandes moléculas de nucleótidos que adoptan la forma de una doble hélice, y es el responsable de la ransmisión de los caracteres hereditarios de padres a hijos.
El segundo se presenta en moléculas de diferentes formas que, en conjunto, tienen como misión enviar órdenes a los distintos orgánulos para que se formen en el organismo vivo las distintas proteínas necesarias en cada momento.
Las proteínas son los componentes cuyas moléculas presentan una mayor variedad: en el cuerpo humano existen unas diez mil clases diferentes de moléculas de proteínas. Esta enorme variedad procede únicamente de una veintena de compuestos diferentes llamados aminoácidos, cuyas moléculas están formadas por carbono, nitrógeno, hidrógeno, oxígeno y en algunos casos, azufre. Los aminoácidos se unen mediante los llamados enlaces pépticos originando cadenas moleculares, generalmente de forma helicoidal, que son las distintas proteínas. La misión de las proteínas es aportar energía al organismo, aunque de forma mucho más específica que los hidratos de carbono, ya que cada tipo de célula en particular recibe un tipo distinto de proteínas.
Los ácidos nucleicos se localizan en el núcleo de la célula; son las más complejas de las moléculas biológicas y están formados por unidades más pequeñas llamadas nucleótidos. Existen dos tipos de ácidos nucleicos: el desoxirribonucleico (ADN) y el ribonucleico (ARN). El primero está formado por grandes moléculas de nucleótidos que adoptan la forma de una doble hélice, y es el responsable de la ransmisión de los caracteres hereditarios de padres a hijos.
El segundo se presenta en moléculas de diferentes formas que, en conjunto, tienen como misión enviar órdenes a los distintos orgánulos para que se formen en el organismo vivo las distintas proteínas necesarias en cada momento.
LA GENERACION ESPONTANEA
Ya hace muchos siglos, el conocimiento del origen de la vida interesó profundamente al hombre. Careciendo de base científica, predominaron las teorías filosóficas, destacando claramente la teoría de la generación espontánea. Según ella, todos los seres vivos nacen espontáneamente de la materia orgánica en descomposición, o bien de la materia mineral cuando se encuentra en determinadas condiciones. Aristóteles admitía que, en general, los seres vivos se originan de otros seres vivos semejantes, pero que igualmente pueden generarse de la materia inerte. Toda la Edad Media acusa una gran influencia aristotélica, y por tanto, la creencia en la generación espontánea incluso se enriquece. También en el Renacimiento se sigue admitiendo la teoría, hasta en personajes de la talla de Descartes (1596- 1650) o Newton (1642-1727). El primero en enfrentarse al dogma es el italiano Francesco Redi (1626-1697), quien, cosa infrecuente en la época, recurre al método científico para comprobar la teoría. Con sus experimentos, demuestra la imposibilidad de crear vida a partir de la carne en putrefacción: los gusanos que aparecían sobre la carne de los frascos destapados provenían simplemente de los huevos que las moscas habían depositado sobre la misma.
La controversia, sin embargo, continúa hasta llegar a Pasteur (1822-1895), cuyo gran mérito estriba en zanjar definitivamente la controversia, demostrando de una vez por todas la falsedad de la generación espontánea. Mediante sus observaciones al microscopio, Pasteur demostró que en la fermentación del vino y de la cerveza intervenían microorganismos vivos como elaboradores del fermento; es más, descubrió el remedio para evitar el avinagramiento del vino, sometiéndole a un calentamiento lento hasta alcanzar una temperatura tal que los microorganismos productores del fermento no pudiesen vivir. Este proceso, que después se ha generalizado en su aplicación, es conocido en su honor con el nombre de pasteurización.
La controversia, sin embargo, continúa hasta llegar a Pasteur (1822-1895), cuyo gran mérito estriba en zanjar definitivamente la controversia, demostrando de una vez por todas la falsedad de la generación espontánea. Mediante sus observaciones al microscopio, Pasteur demostró que en la fermentación del vino y de la cerveza intervenían microorganismos vivos como elaboradores del fermento; es más, descubrió el remedio para evitar el avinagramiento del vino, sometiéndole a un calentamiento lento hasta alcanzar una temperatura tal que los microorganismos productores del fermento no pudiesen vivir. Este proceso, que después se ha generalizado en su aplicación, es conocido en su honor con el nombre de pasteurización.
OPARIN Y LOS COACERVADOS
Una vez sentada, gracias a Pasteur, la base de que la vida procede de sí misma, quedaba por aclarar el cómo y el cuándo se originó la primera vida sobre la Tierra. La idea de utilizar la evolución para explicar el fenómeno vital no es nueva: Jean Baptiste Lamarck (1744-1829) sugirió ya que la materia mineral habría podido engendrar sustancias orgánicas que podrían ordenarse poco a poco hasta alcanzar el estatus vital. En 1922, el bioquímico soviético Alexander Ivanovich Oparin publicó una pequeña obra titulada "El origen de la vida"; en ella exponía una nueva teoría, según la cual, las moléculas orgánicas complejas habrían podido evolucionar fuera de todo organismo, reunirse y formar sistemas cada vez más complejos, sometidos a los principios de la evolución, particularmente el de la selección natural, hasta llegar al primer orgánulo.
Para Oparin, la atmósfera primitiva estaba compuesta por hidrógeno, metano, amoníaco y vapor de agua. Esta mezcla gaseosa, debido a la acción de los rayos solares, daría lugar a gran cantidad de moléculas orgánicas, que caerían en los océanos y allí se acumularían durante largos períodos de tiempo sin riesgo de descomposición, formando un "caldo nutritivo". Las moléculas se irían asociando entre sí, formando agregados moleculares cada vez más complejos, con una estructura concreta, a los que llamó coacervados. Los coacervados con capacidad de autosíntesis (productores de su propio alimento), evolucionarían hacia formas cada vez más estables y complicadas hasta convertirse en verdaderas estructuras vivientes. Estos organismos primordiales darían lugar, por evolución durante millones de años, al mundo vegetal y animal de nuestro planeta. Teorías semejantes, aunque con menor difusión mundial, fueron expuestas poco después por el italiano Giglio-Tos y el inglés J.S. Haldane.
¿Cuándo apareció la vida sobre la Tierra? El nacimiento de nuestro planeta tuvo lugar hace 4.600 millones de años, en que apareció en forma de una masa incandescente, por condensación de la nube primordial que originó el Sol y los planetas del Sistema Solar. A partir de aquel momento, el enfriamiento progresivo dio lugar a la formación de una superficie sólida, la corteza terrestre; desde ese momento hasta la aparición de la vida transcurre un período llamado era Azoica. Durante la era Azoica, las erupciones volcánicas arrojan al exterior vapor de agua que, al enfriarse, da origen a los primeros mares. Este agua es a su vez el origen del oxígeno y del hidrógeno, que va transformando la atmósfera primitiva, rica en metano, hidrógeno y amoníaco, en otra rica en nitrógeno, oxígeno y dióxido de carbono. Con estas condiciones, la aparición de la vida ya es factible, calculándose la existencia de los primeros organismos vivos hace unos 3.700 millones de años.
Para Oparin, la atmósfera primitiva estaba compuesta por hidrógeno, metano, amoníaco y vapor de agua. Esta mezcla gaseosa, debido a la acción de los rayos solares, daría lugar a gran cantidad de moléculas orgánicas, que caerían en los océanos y allí se acumularían durante largos períodos de tiempo sin riesgo de descomposición, formando un "caldo nutritivo". Las moléculas se irían asociando entre sí, formando agregados moleculares cada vez más complejos, con una estructura concreta, a los que llamó coacervados. Los coacervados con capacidad de autosíntesis (productores de su propio alimento), evolucionarían hacia formas cada vez más estables y complicadas hasta convertirse en verdaderas estructuras vivientes. Estos organismos primordiales darían lugar, por evolución durante millones de años, al mundo vegetal y animal de nuestro planeta. Teorías semejantes, aunque con menor difusión mundial, fueron expuestas poco después por el italiano Giglio-Tos y el inglés J.S. Haldane.
¿Cuándo apareció la vida sobre la Tierra? El nacimiento de nuestro planeta tuvo lugar hace 4.600 millones de años, en que apareció en forma de una masa incandescente, por condensación de la nube primordial que originó el Sol y los planetas del Sistema Solar. A partir de aquel momento, el enfriamiento progresivo dio lugar a la formación de una superficie sólida, la corteza terrestre; desde ese momento hasta la aparición de la vida transcurre un período llamado era Azoica. Durante la era Azoica, las erupciones volcánicas arrojan al exterior vapor de agua que, al enfriarse, da origen a los primeros mares. Este agua es a su vez el origen del oxígeno y del hidrógeno, que va transformando la atmósfera primitiva, rica en metano, hidrógeno y amoníaco, en otra rica en nitrógeno, oxígeno y dióxido de carbono. Con estas condiciones, la aparición de la vida ya es factible, calculándose la existencia de los primeros organismos vivos hace unos 3.700 millones de años.
EL EXPERIMENTO DE MILLER
La teoría de Oparin no deja de ser una hipótesis; pese a ello, ha podido, en parte, ser confirmada por el químico norteamericano Stanley Miller. En los años cincuenta, Miller trabajaba en la Universidad de Chicago bajo la dirección de H.C. Urey. Simuló en un balón de vidrio la atmósfera primitiva con la mezcla de gases propuesta por Oparin y la sometió a descargas eléctricas que simularían a las radiaciones solares que en esa época incidían sobre la superficie de nuestro planeta. Cuando al cabo de una semana analizó los productos resultantes de la reacción, comprobó que se habían sintetizado compuestos orgánicos y, en particular, aminoácidos, a partir de los cuales se formarían las proteínas, componentes fundamentales de la materia viva: Miller había conseguido formar compuestos orgánicos en condiciones prebiológicas.
Sin embargo, la segunda parte de la teoría de Oparin, según la cual estas moléculas se fueron agrupando durante cientos de miles de años hasta adquirir las características de un ser vivo, ha de demostrarse por las teorías de la evolución. El experimento de Miller sirvió de punto de partida a gran número de investigadores, como Calvin, Sagan o Ponnamperuma...tal vez dentro de poco tiempo tengamos una idea más exacta de cómo se produjo el portentoso salto a la vida, ayudados por la enorme labor de estos pioneros de la Química prebiológica.
Sin embargo, la segunda parte de la teoría de Oparin, según la cual estas moléculas se fueron agrupando durante cientos de miles de años hasta adquirir las características de un ser vivo, ha de demostrarse por las teorías de la evolución. El experimento de Miller sirvió de punto de partida a gran número de investigadores, como Calvin, Sagan o Ponnamperuma...tal vez dentro de poco tiempo tengamos una idea más exacta de cómo se produjo el portentoso salto a la vida, ayudados por la enorme labor de estos pioneros de la Química prebiológica.
LAS MICROESFERAS DE FOX
La publicación de la teoría de Oparin y la confirmación parcial de la misma mediante el experimento de Miller, dieron lugar a que muchos biólogos encaminaran sus investigaciones a descubrir cómo fue el largo proceso en el cual la materia inerte llegó a alcanzar las estructuras que permitirían, posteriormente, el nacimiento de las primeras células. Según el bioquímico norteamericano Sydney W.Fox, la aparición de la vida sobre nuestro planeta no sólo tuvo lugar en el mar, como proponía la teoría de Oparin, sino que también podría haber sucedido sobre la tierra firme. Demostró que a temperaturas próximas a los 1.000 ºC, una mezcla de gases similares a los que formaron la atmósfera primitiva sufría una serie de transformaciones tales que se lograba la síntesis de aminoácidos, que a su vez se unían formando "protenoides". Al sumergirse en agua, los protenoides generaban un proceso de repliegue sobre sí mismos adoptando una forma globosa, las microesferas, que estaban limitadas por una doble capa que las protegía del exterior, apareciendo así el ancestro de lo que posteriormente sería la membrana plasmática. Las microesferas, a través de la membrana, podían tomar del exterior sustancias como agua, glucosa, aminoácidos, etc., que producían la energía suficiente para que continuase el desarrollo de la microesfera.
Existen datos, según Graham Cairns-Smith, de la Universidad de Glasgow, sobre la existencia de una "vida inorgánica" previa a la vida orgánica que conocemos. Esta vida inorgánica tendría como soporte universal a estructuras del tipo de las arcillas, que habrían permitido la producción de pequeñas moléculas que se asociarían entre sí para dar origen a macromoléculas que acabarían adquiriendo la capacidad de autorreplicación. La propia estructura repetitiva de las arcillas haría que éstas actuasen como auténticos catalizadores, formándose en la superficie de las laminillas de arcilla, moléculas de naturaleza orgánica; dado que las arcillas son muy variadas, podrían generar un número inmenso de combinaciones de proteínas y de nucleótidos. Las macromoléculas biológicas le parecen demasiado complicadas para haber estado presentes en los primeros sistemas vivos; sólo más tarde, de forma progresiva, habrían sustituído a las arcillas mediante un mecanismo de selección natural.
La síntesis prebiótica de las macromoléculas biológicas fue una etapa fundamental en el camino hacia la aparición de la materia viva, así como el origen de la membrana que separaría estas macromoléculas del exterior, problema estudiado por Joan Oró, de la Universidad de Houston. En condiciones prebióticas, llegó a obtener lípidos, componentes fundamentales de la membrana de toda célula viva, con ayuda de una mezcla de compuestos orgánicos derivados del ácido cianhídrico. Las microesferas de Fox o los "margináramos" (granos de mar) de Fujio Egami, son ejemplos de microestructuras estables de un diámetro medio de una micra, capaces de producir brotes e incluso de dividirse, pero aún les falta lo esencial para hacer perdurar la especie: el material genético.
¿Cuál de las macromoléculas biológicas apareció primero? Muchos investigadores prebióticos apoyan la idea de Manfred Eigen, premio Nobel en 1967, según la cual la secuencia de los acontecimientos fue la siguiente: primero, los ácidos nucleicos, después, las proteínas y finalmente la célula, aunque también haya sido posible una aparición simultánea y complementaria.
Existen datos, según Graham Cairns-Smith, de la Universidad de Glasgow, sobre la existencia de una "vida inorgánica" previa a la vida orgánica que conocemos. Esta vida inorgánica tendría como soporte universal a estructuras del tipo de las arcillas, que habrían permitido la producción de pequeñas moléculas que se asociarían entre sí para dar origen a macromoléculas que acabarían adquiriendo la capacidad de autorreplicación. La propia estructura repetitiva de las arcillas haría que éstas actuasen como auténticos catalizadores, formándose en la superficie de las laminillas de arcilla, moléculas de naturaleza orgánica; dado que las arcillas son muy variadas, podrían generar un número inmenso de combinaciones de proteínas y de nucleótidos. Las macromoléculas biológicas le parecen demasiado complicadas para haber estado presentes en los primeros sistemas vivos; sólo más tarde, de forma progresiva, habrían sustituído a las arcillas mediante un mecanismo de selección natural.
La síntesis prebiótica de las macromoléculas biológicas fue una etapa fundamental en el camino hacia la aparición de la materia viva, así como el origen de la membrana que separaría estas macromoléculas del exterior, problema estudiado por Joan Oró, de la Universidad de Houston. En condiciones prebióticas, llegó a obtener lípidos, componentes fundamentales de la membrana de toda célula viva, con ayuda de una mezcla de compuestos orgánicos derivados del ácido cianhídrico. Las microesferas de Fox o los "margináramos" (granos de mar) de Fujio Egami, son ejemplos de microestructuras estables de un diámetro medio de una micra, capaces de producir brotes e incluso de dividirse, pero aún les falta lo esencial para hacer perdurar la especie: el material genético.
¿Cuál de las macromoléculas biológicas apareció primero? Muchos investigadores prebióticos apoyan la idea de Manfred Eigen, premio Nobel en 1967, según la cual la secuencia de los acontecimientos fue la siguiente: primero, los ácidos nucleicos, después, las proteínas y finalmente la célula, aunque también haya sido posible una aparición simultánea y complementaria.
LA ALTERNATIVA DEL ESPACIO
Existe una alternativa importante a todo lo expuesto anteriormente, y es la alternativa espacial. Darwin, en su obra "El origen de las especies", escribía: "...debemos admitir también que todos los seres organizados que viven o que han vivido sobre la Tierra, pueden descender de una única forma primordial"...una especie de bacteria primitiva básica.
Para algunos científicos de finales del siglo XIX, esa primera bacteria tenía su origen en el espacio. La idea de que la Tierra fue fecundada por microorganismos procedentes del espacio empezó a desarrollarse a partir de 1865 por parte del biólogo alemán Hermann Richter; según él, la vida está presente en todo el Universo bajo la forma de gérmenes de microorganismos, a los que llamó cosmozoarios. Los meteoritos que continuamente impactan en la Tierra transportarían los cosmozoarios, que una vez en el planeta, se desarrollarían en condiciones favorables.
El químico sueco Svante Arrhenius (1859-1927) retomó la idea de Richter dándole una forma más elaborada: la teoría de la Panspermia, publicada en 1906. Según esta teoría, la vida es transportada en el espacio bajo la forma de esporas, organismos vivos microscópicos, impulsadas por la presión de la radiación estelar. Esta teoría no responde a la pregunta fundamental: ¿cuál fue el origen de esas esporas extraterrestres? Lo que sí es cierto es que en los últimos años se han descubierto más de un centenar de moléculas orgánicas en las densas nubes que separan las estrellas. La siembra de esas moléculas en nuestro planeta, transportadas por meteoritos, pudieron proporcionar una parte de los materiales orgánicos indispensables para la evolución biológica. Así mismo, los impactos de cometas también han podido sembrar la Tierra de materiales orgánicos, y facilitar de esta manera la aparición de la vida en el planeta al aportar diversos constituyentes importantes en la evolución.
Más radical se muestra Fred Hoyle, que junto a Chandra Wickramasinghe, de la Universidad de Cardiff, retorna a la Panspermia, afirmando que resulta un proceso inútil buscar el origen de la vida en la propia Tierra, puesto que se ha formado en alguna parte del espacio interestelar. Estos dos astrofísicos han observado las nubes de materia que separan las estrellas, desde el infrarrojo al ultravioleta, afirmando haber identificado sistemas vivos. Así mismo afirman que nuestro planeta ha recibido y recibe continuamente microorganismos, incluso virus, de los impactos de cometas y meteoritos, lo que habría sido el origen de las distintas epidemias sufridas por la Humanidad a lo largo de los siglos.
Para algunos científicos de finales del siglo XIX, esa primera bacteria tenía su origen en el espacio. La idea de que la Tierra fue fecundada por microorganismos procedentes del espacio empezó a desarrollarse a partir de 1865 por parte del biólogo alemán Hermann Richter; según él, la vida está presente en todo el Universo bajo la forma de gérmenes de microorganismos, a los que llamó cosmozoarios. Los meteoritos que continuamente impactan en la Tierra transportarían los cosmozoarios, que una vez en el planeta, se desarrollarían en condiciones favorables.
El químico sueco Svante Arrhenius (1859-1927) retomó la idea de Richter dándole una forma más elaborada: la teoría de la Panspermia, publicada en 1906. Según esta teoría, la vida es transportada en el espacio bajo la forma de esporas, organismos vivos microscópicos, impulsadas por la presión de la radiación estelar. Esta teoría no responde a la pregunta fundamental: ¿cuál fue el origen de esas esporas extraterrestres? Lo que sí es cierto es que en los últimos años se han descubierto más de un centenar de moléculas orgánicas en las densas nubes que separan las estrellas. La siembra de esas moléculas en nuestro planeta, transportadas por meteoritos, pudieron proporcionar una parte de los materiales orgánicos indispensables para la evolución biológica. Así mismo, los impactos de cometas también han podido sembrar la Tierra de materiales orgánicos, y facilitar de esta manera la aparición de la vida en el planeta al aportar diversos constituyentes importantes en la evolución.
Más radical se muestra Fred Hoyle, que junto a Chandra Wickramasinghe, de la Universidad de Cardiff, retorna a la Panspermia, afirmando que resulta un proceso inútil buscar el origen de la vida en la propia Tierra, puesto que se ha formado en alguna parte del espacio interestelar. Estos dos astrofísicos han observado las nubes de materia que separan las estrellas, desde el infrarrojo al ultravioleta, afirmando haber identificado sistemas vivos. Así mismo afirman que nuestro planeta ha recibido y recibe continuamente microorganismos, incluso virus, de los impactos de cometas y meteoritos, lo que habría sido el origen de las distintas epidemias sufridas por la Humanidad a lo largo de los siglos.
lunes
Y VOLVIO A HACERSE LA LUZ
El famoso poeta inglés Alexander Pope, escribía, dirigiéndose a Newton: "la Naturaleza y las leyes naturales se ocultaban en la noche, hasta que Dios dijo: "¡Que nazca Newton!...y se hizo la luz". Albert Einstein cambió sustancialmente las bases de la Física, que había entrado en crisis, fundamentalmente, con la falta de explicación a los resultados del experimento de Michelson y Morley.
A finales del siglo XIX, la Física Clásica, basada en la relatividad de Galileo, las leyes de Newton y la Teoría Electromagnética de Maxwell, estaba tan asentada en estos pilares, que la comunidad científica daba por hecho su inmutabilidad. Sin embargo, y poco tiempo más tarde, la aparición de un físico genial y solitario, Albert Einstein, por un lado, y de Max Plank y sus seguidores, por otro, revolucionó de tal manera la Física, que aún hoy mucha gente se pregunta si la Física es una sola, o son realmente tres, la Clásica, la Relativista y la Cuántica.
Responderemos más adelante a esta cuestión, pero parece conveniente centrarse ahora en la figura de Albert Einstein, creador de la Relatividad Especial o Restringida y la Relatividad General, así como de otros trabajos que, si no tan trascendentales, sí tan importantes como para obtener con uno de ellos el premio Nobel.
Einstein nació en el año 1879, en la ciudad alemana de Ulm, de familia judía. Un año después la familia se trasladó a Munich (Baviera), donde el pequeño Albert cursó los estudios primarios y secundarios, siendo un alumno, en opinión de sus profesores, de escaso aprovechamiento, distraído, rebelde y poco comunicativo, aunque destacase ligeramente en Matemáticas y en Física.
Los estudios universitarios los realizó en la Escuela Superior de Aaran (Suiza), y una vez terminados no encontró un trabajo acorde con su titulación, por lo que tuvo que aceptar un empleo en la Oficina de Patentes de Berna. Lo positivo de este hecho fue que al contar con mucho tiempo libre, lo utilizó para investigar autónomamente, lo que le condujo a publicar, en el año 1905, tres artículos en una revista científica, Annalen der Physik 12, uno de los cuales sentó las bases de la Relatividad Especial, el titulado "Sobre la Electrodinámica de los cuerpos en movimiento". Los otros dos artículos versaban sobre el movimiento browniano, el primero, y sobre el efecto fotoeléctrico, el segundo, y a este trabajo hizo referencia el premio Nobel obtenido en el año 1921.
En 1909 es nombrado profesor de la Universidad de Zurich, y en 1913 profesor de la Universidad de Berlín y director del Instituto Kaiser Whilhem, donde estuvo 20 años; en ese período obtuvo el premio Nobel de Física en 1921. En 1933, por razones políticas y sociales, se trasladó a Princeton, New Jersey, donde se nacionalizó norteamericano y residió hasta su fallecimiento, en 1955. En este tiempo alternó sus tareas de enseñanza e investigación, recorrió el mundo dando conferencias y trató en vano de formular una Teoría Unificada sobre las interacciones básicas, asunto no resuelto aún en la actualidad.
Tenía un espíritu científico tolerante, aunque sus convicciones eran muy profundas, y las defendía con ardor. De carácter pacifista, su religiosidad, no concretada, se basaba en la identificación de Dios con el orden y las leyes de la Física. Era un hombre individualista, aunque solidario, y muy proclive a la justicia social.
DOS TEORIAS DE LA RELATIVIDAD.
Aunque al hablar de Einstein siempre se le suele identificar como el creador de la Teoría de la Relatividad, es importante aclarar que las innovaciones que introdujo en la Física dentro de lo que se entiende por relatividad pueden desglosarse en una Teoría inicial donde introduce la velocidad de la luz como una constante absoluta, que no se puede componer con otras velocidades, (lo que invalida en este caso la relatividad de Galileo), y otra Teoría posterior más amplia, en la cual los fenómenos gravitatorios se estudian mediante una profunda interrelación entre materia y geometría, en un espacio no euclídeo (el espacio-tiempo), cuya métrica está determinada por la distribución de materia.
La primera Teoría, que se expondrá en este trabajo, se conoce con el nombre de Relatividad Especial o Restringida, referida a los sistemas inerciales. La segunda, Relatividad General, desarrollada por Einstein en 1916, es una ampliación de la primera, y está referida al estudio de los sistemas acelerados, estableciendo la equivalencia entre un sistema acelerado y un Campo gravitatorio.
La Relatividad General sostiene que las leyes de la Naturaleza son las mismas para todos los observadores aunque se hallen acelerando los unos con respecto a los otros; así, incluye a la Especial, pero abarca mucho más; puede considerarse como una nueva Teoría de la Gravitación, en la cual Einstein considera la gravedad como una propiedad del espacio más que una fuerza entre cuerpos. La presencia de la materia provoca una curvatura en el espacio y los cuerpos, al caer libremente, siguen las líneas de longitud mínima, llamadas geodésicas. La gravedad resulta ser consecuencia de la curvatura del espacio inducida por la presencia de un objeto masivo, en un Universo curvado por las masas, basado en la geometría de Riemmann, donde los rayos luminosos no se desplazan en línea recta, sino en geodésicas, líneas que siguen el camino más corto entre dos puntos a través de un espacio curvo.
La Relatividad Especial no contradice a la Física Clásica: abarca la física newtoniana antes que reemplazarla; reproduce a Newton a velocidades bajas, pero describe los fenómenos con mayor precisión a velocidades altas.
La afirmación de que nada puede viajar más aprisa que la luz, según esta Teoría, no es estrictamente cierta. Ocurre que al ir aumentando la velocidad de un objeto, crece su masa, con lo que al llegar a c, su masa se hace infinita, por lo que se necesitaría una fuerza infinita para acelerarla. Algunos científicos han sugerido la existencia de los taquiones, partículas que siempre se mueven a velocidades superiores a la de la luz, y que no pueden ser desaceleradas a velocidades inferiores.
La Mecánica Cuántica, iniciada por Max Plank en 1900 y continuada por Bohr, Heisemberg, Dirac, Schroedinger y otros, describe con gran precisión el comportamiento de partículas subatómicas, acercando sus planteamientos a los hechos experimentales de una forma mucho más acentuada que la Relatividad, desde una perspectiva probabilística y un desarrollo matemático muy complejo. Aunque se han hecho integraciones parciales relativo-cuánticas, como, por ejemplo, en la Teoría de Hawking sobre la radiación de los agujeros negros, no se ha logrado aún una Teoría Unificada, asignatura pendiente para los físicos del siglo XXI.
A finales del siglo XIX, la Física Clásica, basada en la relatividad de Galileo, las leyes de Newton y la Teoría Electromagnética de Maxwell, estaba tan asentada en estos pilares, que la comunidad científica daba por hecho su inmutabilidad. Sin embargo, y poco tiempo más tarde, la aparición de un físico genial y solitario, Albert Einstein, por un lado, y de Max Plank y sus seguidores, por otro, revolucionó de tal manera la Física, que aún hoy mucha gente se pregunta si la Física es una sola, o son realmente tres, la Clásica, la Relativista y la Cuántica.
Responderemos más adelante a esta cuestión, pero parece conveniente centrarse ahora en la figura de Albert Einstein, creador de la Relatividad Especial o Restringida y la Relatividad General, así como de otros trabajos que, si no tan trascendentales, sí tan importantes como para obtener con uno de ellos el premio Nobel.
Einstein nació en el año 1879, en la ciudad alemana de Ulm, de familia judía. Un año después la familia se trasladó a Munich (Baviera), donde el pequeño Albert cursó los estudios primarios y secundarios, siendo un alumno, en opinión de sus profesores, de escaso aprovechamiento, distraído, rebelde y poco comunicativo, aunque destacase ligeramente en Matemáticas y en Física.
Los estudios universitarios los realizó en la Escuela Superior de Aaran (Suiza), y una vez terminados no encontró un trabajo acorde con su titulación, por lo que tuvo que aceptar un empleo en la Oficina de Patentes de Berna. Lo positivo de este hecho fue que al contar con mucho tiempo libre, lo utilizó para investigar autónomamente, lo que le condujo a publicar, en el año 1905, tres artículos en una revista científica, Annalen der Physik 12, uno de los cuales sentó las bases de la Relatividad Especial, el titulado "Sobre la Electrodinámica de los cuerpos en movimiento". Los otros dos artículos versaban sobre el movimiento browniano, el primero, y sobre el efecto fotoeléctrico, el segundo, y a este trabajo hizo referencia el premio Nobel obtenido en el año 1921.
En 1909 es nombrado profesor de la Universidad de Zurich, y en 1913 profesor de la Universidad de Berlín y director del Instituto Kaiser Whilhem, donde estuvo 20 años; en ese período obtuvo el premio Nobel de Física en 1921. En 1933, por razones políticas y sociales, se trasladó a Princeton, New Jersey, donde se nacionalizó norteamericano y residió hasta su fallecimiento, en 1955. En este tiempo alternó sus tareas de enseñanza e investigación, recorrió el mundo dando conferencias y trató en vano de formular una Teoría Unificada sobre las interacciones básicas, asunto no resuelto aún en la actualidad.
Tenía un espíritu científico tolerante, aunque sus convicciones eran muy profundas, y las defendía con ardor. De carácter pacifista, su religiosidad, no concretada, se basaba en la identificación de Dios con el orden y las leyes de la Física. Era un hombre individualista, aunque solidario, y muy proclive a la justicia social.
DOS TEORIAS DE LA RELATIVIDAD.
Aunque al hablar de Einstein siempre se le suele identificar como el creador de la Teoría de la Relatividad, es importante aclarar que las innovaciones que introdujo en la Física dentro de lo que se entiende por relatividad pueden desglosarse en una Teoría inicial donde introduce la velocidad de la luz como una constante absoluta, que no se puede componer con otras velocidades, (lo que invalida en este caso la relatividad de Galileo), y otra Teoría posterior más amplia, en la cual los fenómenos gravitatorios se estudian mediante una profunda interrelación entre materia y geometría, en un espacio no euclídeo (el espacio-tiempo), cuya métrica está determinada por la distribución de materia.
La primera Teoría, que se expondrá en este trabajo, se conoce con el nombre de Relatividad Especial o Restringida, referida a los sistemas inerciales. La segunda, Relatividad General, desarrollada por Einstein en 1916, es una ampliación de la primera, y está referida al estudio de los sistemas acelerados, estableciendo la equivalencia entre un sistema acelerado y un Campo gravitatorio.
La Relatividad General sostiene que las leyes de la Naturaleza son las mismas para todos los observadores aunque se hallen acelerando los unos con respecto a los otros; así, incluye a la Especial, pero abarca mucho más; puede considerarse como una nueva Teoría de la Gravitación, en la cual Einstein considera la gravedad como una propiedad del espacio más que una fuerza entre cuerpos. La presencia de la materia provoca una curvatura en el espacio y los cuerpos, al caer libremente, siguen las líneas de longitud mínima, llamadas geodésicas. La gravedad resulta ser consecuencia de la curvatura del espacio inducida por la presencia de un objeto masivo, en un Universo curvado por las masas, basado en la geometría de Riemmann, donde los rayos luminosos no se desplazan en línea recta, sino en geodésicas, líneas que siguen el camino más corto entre dos puntos a través de un espacio curvo.
La Relatividad Especial no contradice a la Física Clásica: abarca la física newtoniana antes que reemplazarla; reproduce a Newton a velocidades bajas, pero describe los fenómenos con mayor precisión a velocidades altas.
La afirmación de que nada puede viajar más aprisa que la luz, según esta Teoría, no es estrictamente cierta. Ocurre que al ir aumentando la velocidad de un objeto, crece su masa, con lo que al llegar a c, su masa se hace infinita, por lo que se necesitaría una fuerza infinita para acelerarla. Algunos científicos han sugerido la existencia de los taquiones, partículas que siempre se mueven a velocidades superiores a la de la luz, y que no pueden ser desaceleradas a velocidades inferiores.
La Mecánica Cuántica, iniciada por Max Plank en 1900 y continuada por Bohr, Heisemberg, Dirac, Schroedinger y otros, describe con gran precisión el comportamiento de partículas subatómicas, acercando sus planteamientos a los hechos experimentales de una forma mucho más acentuada que la Relatividad, desde una perspectiva probabilística y un desarrollo matemático muy complejo. Aunque se han hecho integraciones parciales relativo-cuánticas, como, por ejemplo, en la Teoría de Hawking sobre la radiación de los agujeros negros, no se ha logrado aún una Teoría Unificada, asignatura pendiente para los físicos del siglo XXI.
EXPERIMENTO DE MICHELSON Y MORLEY
Hagamos una analogía con el experimento, suponiendo dos lanchas motoras, A y B, que se encuentran en la orilla de un río. Ambas lanchas pueden alcanzar la misma velocidad "c", y la corriente del río, que suponemos fluye de izquierda a derecha, lleva una velocidad "v". La lancha A recorre aguas abajo la distancia "d", gira instantáneamente y vuelve agua arriba al punto de partida. La lancha B hace también un recorrido "d", pero en dirección perpendicular a la corriente, girando instantáneamente y regresando al punto de partida. Los tiempos invertidos por cada lancha, ¿son iguales?. Evidentemente no. El tiempo de A es igual a
tA = 2d/c(1-v2/c2) y el tiempo de B es
tB = 2d/c (1-v2/c2)^1/2
Eso significa que tB siendo, por tanto, v = c(1-tB2/tA2)^1/2
Este sencillo ejemplo de relatividad galileana muestra cómo se puede averiguar la velocidad v de la corriente del río (analogía con la velocidad de la Tierra con respecto al "éter"), midiendo los tiempos y sabiendo la velocidad de las lanchas (analogía con la velocidad de la luz).
El fundamento del experimento de Michelson y Morley es análogo al problema anterior, pero maneja haces luminosos en lugar de lanchas. Veamos un ejemplo. Una fuente de luz monocromática envía un haz luminoso hacia la lámina semiplateada L, inclinada 45 grados, que transmite el haz 1 (a) hacia el espejo E1, y refleja el haz 2 (b) hacia el espejo E2; cada uno de estos haces se refleja en su correspondiente espejo y retorna por la lámina a la pantalla de observación. Los espejos E1 y E2 están colocados a igual distancia de la lámina, y los haces 1(a) y 2(b) recorren la misma distancia. LE1 = LE2 = d. Este dispositivo es un interferómetro: v es la velocidad de la Tierra con respecto al éter, hoy el espacio semivacío, y con él, Michelson y Morley intentaron medir la velocidad v, velocidad de la Tierra con respecto al éter, conociendo c, velocidad de la luz, aplicando la relatividad galileana. Según esto:
ta = d/(c-v) + d/(c+v) = 2d/c(1-v2/c2)
El haz 2 se propaga con velocidad (c2-v2)^1/2, siendo la duración total de su recorrido
tb = 2d/(c2-v2)^1/2
Por lo tanto, igual que en el ejemplo, los tiempos son distintos. En la pantalla, aparecería una diferencia de fase
dif.de fase = (ta-tb)/T,
siendo T el período de la luz utilizada. Los fenómenos de interferencia que deberían aparecer en la pantalla no se detectaron, ni en el experimento inicial, ni en posteriores experimentos realizados tanto por Michelson como por otros físicos experimentales.
¿Qué había ocurrido?. Para Michelson, su experimento había fallado, y esto lo pensó durante toda su vida. Para la comunidad científica, había llegado el momento de replantearse la relatividad galileana y, por tanto, uno de los pilares básicos sobre los que se asienta la Física clásica.
El resultado negativo del experimento impedía hallar la velocidad de la Tierra con respecto al éter, por lo cual, se abandonó la idea del éter, pues no podía medirse ni siquiera su velocidad aparente, y si no presentaba propiedades medibles, no tenía sentido mantenerlo. Había llegado el momento de sustituir el concepto de éter por el de vacío, lo cual ponía en cuestión las teorías de Maxwell sobre la propagación de las ondas electromagnéticas: no había un soporte para esta propagación, no había partículas que vibrasen y propagasen la perturbación. Por otro lado, como el éter era el reposo absoluto, tuvo que admitirse la inexistencia de un espacio absoluto como sistema de referencia privilegiado para la descripción de las observaciones.
Sin embargo, el resultado negativo del experimento podía justificarse con suma sencillez admitiendo la invariancia de la velocidad de la luz, independientemente de cualquier movimiento de la fuente o del observador: éste fue uno de los dos postulados de la Relatividad Especial.
LOS DOS POSTULADOS DE LA RELATIVIDAD ESPECIAL
El experimento de Michelson no había fallado, lo que fallaba era la relatividad galileana. Solo Einstein aclaró el enigma suponiendo que la velocidad de la luz no se podía componer con ninguna otra, era una constante absoluta, mientras que el espacio y el tiempo eran conceptos relativos. La Teoría de la Relatividad Especial se asienta en estos dos postulados:
Primero: las leyes de la naturaleza tienen la misma forma matemática en todos los sistemas de referencia inerciales.
Segundo: la velocidad de la luz es independiente del movimiento de la fuente o del receptor, es la misma para todos los sistemas inerciales.
EL TIEMPO RELATIVO
Supongamos un tren que se desplaza con movimiento rectilíneo y uniforme. Supongamos un vagón, en cuyo suelo hay una linterna que emite un destello, reflejándose en el techo y volviendo nuevamente al suelo.
Para un observador situado en el vagón, el tiempo "propio" del recorrido del destello es
T = 2D/c
siendo D la altura del vagón.
Pero un observador exterior ve las cosas de manera diferente. Para él, el recorrido del destelloaparece como una V invertida, y el tiempo lo calcula por:
t = 2D'/c
A su vez, la linterna, solidaria con el tren, se ha desplazado la distancia vt. Aplicando el Teorema de Pitágoras:
(c t/2)^2 = D^2 + (v t/2)^2
despejando t
t = 2D/ (c2 - v2)^1/2 = 2D/c( 1-v2/c2)^1/2
y teniendo en cuenta que 2D/c = T
t = T/(1 - v2/c2)^1/2
Esto significa que t>T, es decir, que el tiempo para el observador externo es mayor que el tiempo propio, el del observador interno. Para el observador interno, el tiempo transcurre más lentamente. Este fenómeno se denomina dilatación del tiempo de los cuerpos en movimiento.
De la misma forma, llamando l a la longitud de un objeto en movimiento, visto por un observador externo, y siendo L la longitud propia, es decir, la que mediría un observador situado en el objeto, la relación entre ambas es:
l = L(1 - v2/c2)^1/2
Esto significa que l
tA = 2d/c(1-v2/c2) y el tiempo de B es
tB = 2d/c (1-v2/c2)^1/2
Eso significa que tB
Este sencillo ejemplo de relatividad galileana muestra cómo se puede averiguar la velocidad v de la corriente del río (analogía con la velocidad de la Tierra con respecto al "éter"), midiendo los tiempos y sabiendo la velocidad de las lanchas (analogía con la velocidad de la luz).
El fundamento del experimento de Michelson y Morley es análogo al problema anterior, pero maneja haces luminosos en lugar de lanchas. Veamos un ejemplo. Una fuente de luz monocromática envía un haz luminoso hacia la lámina semiplateada L, inclinada 45 grados, que transmite el haz 1 (a) hacia el espejo E1, y refleja el haz 2 (b) hacia el espejo E2; cada uno de estos haces se refleja en su correspondiente espejo y retorna por la lámina a la pantalla de observación. Los espejos E1 y E2 están colocados a igual distancia de la lámina, y los haces 1(a) y 2(b) recorren la misma distancia. LE1 = LE2 = d. Este dispositivo es un interferómetro: v es la velocidad de la Tierra con respecto al éter, hoy el espacio semivacío, y con él, Michelson y Morley intentaron medir la velocidad v, velocidad de la Tierra con respecto al éter, conociendo c, velocidad de la luz, aplicando la relatividad galileana. Según esto:
ta = d/(c-v) + d/(c+v) = 2d/c(1-v2/c2)
El haz 2 se propaga con velocidad (c2-v2)^1/2, siendo la duración total de su recorrido
tb = 2d/(c2-v2)^1/2
Por lo tanto, igual que en el ejemplo, los tiempos son distintos. En la pantalla, aparecería una diferencia de fase
dif.de fase = (ta-tb)/T,
siendo T el período de la luz utilizada. Los fenómenos de interferencia que deberían aparecer en la pantalla no se detectaron, ni en el experimento inicial, ni en posteriores experimentos realizados tanto por Michelson como por otros físicos experimentales.
¿Qué había ocurrido?. Para Michelson, su experimento había fallado, y esto lo pensó durante toda su vida. Para la comunidad científica, había llegado el momento de replantearse la relatividad galileana y, por tanto, uno de los pilares básicos sobre los que se asienta la Física clásica.
El resultado negativo del experimento impedía hallar la velocidad de la Tierra con respecto al éter, por lo cual, se abandonó la idea del éter, pues no podía medirse ni siquiera su velocidad aparente, y si no presentaba propiedades medibles, no tenía sentido mantenerlo. Había llegado el momento de sustituir el concepto de éter por el de vacío, lo cual ponía en cuestión las teorías de Maxwell sobre la propagación de las ondas electromagnéticas: no había un soporte para esta propagación, no había partículas que vibrasen y propagasen la perturbación. Por otro lado, como el éter era el reposo absoluto, tuvo que admitirse la inexistencia de un espacio absoluto como sistema de referencia privilegiado para la descripción de las observaciones.
Sin embargo, el resultado negativo del experimento podía justificarse con suma sencillez admitiendo la invariancia de la velocidad de la luz, independientemente de cualquier movimiento de la fuente o del observador: éste fue uno de los dos postulados de la Relatividad Especial.
LOS DOS POSTULADOS DE LA RELATIVIDAD ESPECIAL
El experimento de Michelson no había fallado, lo que fallaba era la relatividad galileana. Solo Einstein aclaró el enigma suponiendo que la velocidad de la luz no se podía componer con ninguna otra, era una constante absoluta, mientras que el espacio y el tiempo eran conceptos relativos. La Teoría de la Relatividad Especial se asienta en estos dos postulados:
Primero: las leyes de la naturaleza tienen la misma forma matemática en todos los sistemas de referencia inerciales.
Segundo: la velocidad de la luz es independiente del movimiento de la fuente o del receptor, es la misma para todos los sistemas inerciales.
EL TIEMPO RELATIVO
Supongamos un tren que se desplaza con movimiento rectilíneo y uniforme. Supongamos un vagón, en cuyo suelo hay una linterna que emite un destello, reflejándose en el techo y volviendo nuevamente al suelo.
Para un observador situado en el vagón, el tiempo "propio" del recorrido del destello es
T = 2D/c
siendo D la altura del vagón.
Pero un observador exterior ve las cosas de manera diferente. Para él, el recorrido del destelloaparece como una V invertida, y el tiempo lo calcula por:
t = 2D'/c
A su vez, la linterna, solidaria con el tren, se ha desplazado la distancia vt. Aplicando el Teorema de Pitágoras:
(c t/2)^2 = D^2 + (v t/2)^2
despejando t
t = 2D/ (c2 - v2)^1/2 = 2D/c( 1-v2/c2)^1/2
y teniendo en cuenta que 2D/c = T
t = T/(1 - v2/c2)^1/2
Esto significa que t>T, es decir, que el tiempo para el observador externo es mayor que el tiempo propio, el del observador interno. Para el observador interno, el tiempo transcurre más lentamente. Este fenómeno se denomina dilatación del tiempo de los cuerpos en movimiento.
De la misma forma, llamando l a la longitud de un objeto en movimiento, visto por un observador externo, y siendo L la longitud propia, es decir, la que mediría un observador situado en el objeto, la relación entre ambas es:
l = L(1 - v2/c2)^1/2
Esto significa que l
TRANSFORMACIONES
La Relatividad Especial trata primordialmente de los problemas de espacio y tiempo en marcos de referencia en movimiento rectilíneo y uniforme, los denominados sistemas inerciales. Veamos las transformaciones de coordenadas en física clásica, o transformaciones galileanas.
Consideremos dos sistemas inerciales, S y S'. S' se mueve con respecto a S con velocidad constante "v", por lo que SS' = vt. El acontecimiento P, que ocurre en el tiempo "t", tiene las siguientes ecuaciones:
x' = x - v-t; t' = t;
Si P se desplaza con velocidad constante:
V' = V - v
Y si se desplazase con aceleración constante:
a' = a
Todo esto es lógico, pero hay un aspecto en el cual falla la transformación de Galileo: no da la invariancia de c. En el sistema S, si hubiese una emisión de luz,
c = x/t
En S'
c' = x'/t'= (x -v t)/t = c - v
Esto está en contradicción con el resultado experimental de la invariancia de c en cualquier sistema de referencia. Había que modificar las relaciones de Galileo: esto fue hecho por Einstein en 1905.
TRANSFORMACION DE LORENTZ
La intención primaria de la Relatividad consiste en modificar las relaciones galileanas para obtener el mismo valor de c en cualquier sistema inercial. En lugar de la transformación de Galileo,
x' = K (x - v t)
Se halla fácilmente que
K = 1/(1 - v2/c2)^1/2
y con este valor, se obtienen:
x' = (x-v t)/(1 - v2/c2)^1/2 t' = (t -v x/c)/(1 - v2/c2)^1/2
V' = (V -v)/(1 - vV/c2)
Estas ecuaciones constituyen el grupo de transformación de Lorentz, base del desarrollo teórico de la Relatividad Especial. De estas ecuaciones se deducen fácilmente las expresiones de la dilatación del tiempo y la contracción del espacio, ya descritas anteriormente.
MASA RELATIVISTA
En el estudio experimental de las desviaciones de electrones por Campos eléctricos y magnéticos, se encontró que la relación e/m de la carga del electrón a su masa era menor para electrones rápidos que para lentos; este hecho sugirió que la masa de los electrones rápidos es mayor que la de los lentos, según una fórmula tipo:
m = m0/(1-v2/c2)^1/2
siendo m la masa de un electrón en movimiento y m0 en reposo.
Esta fórmula fue obtenida en la Teoría de la Relatividad, que a la vez haría una revisión profunda del concepto de materia de la Física clásica.
Consideremos dos sistemas inerciales, S y S'. S' se mueve con respecto a S con velocidad constante "v", por lo que SS' = vt. El acontecimiento P, que ocurre en el tiempo "t", tiene las siguientes ecuaciones:
x' = x - v-t; t' = t;
Si P se desplaza con velocidad constante:
V' = V - v
Y si se desplazase con aceleración constante:
a' = a
Todo esto es lógico, pero hay un aspecto en el cual falla la transformación de Galileo: no da la invariancia de c. En el sistema S, si hubiese una emisión de luz,
c = x/t
En S'
c' = x'/t'= (x -v t)/t = c - v
Esto está en contradicción con el resultado experimental de la invariancia de c en cualquier sistema de referencia. Había que modificar las relaciones de Galileo: esto fue hecho por Einstein en 1905.
TRANSFORMACION DE LORENTZ
La intención primaria de la Relatividad consiste en modificar las relaciones galileanas para obtener el mismo valor de c en cualquier sistema inercial. En lugar de la transformación de Galileo,
x' = K (x - v t)
Se halla fácilmente que
K = 1/(1 - v2/c2)^1/2
y con este valor, se obtienen:
x' = (x-v t)/(1 - v2/c2)^1/2 t' = (t -v x/c)/(1 - v2/c2)^1/2
V' = (V -v)/(1 - vV/c2)
Estas ecuaciones constituyen el grupo de transformación de Lorentz, base del desarrollo teórico de la Relatividad Especial. De estas ecuaciones se deducen fácilmente las expresiones de la dilatación del tiempo y la contracción del espacio, ya descritas anteriormente.
MASA RELATIVISTA
En el estudio experimental de las desviaciones de electrones por Campos eléctricos y magnéticos, se encontró que la relación e/m de la carga del electrón a su masa era menor para electrones rápidos que para lentos; este hecho sugirió que la masa de los electrones rápidos es mayor que la de los lentos, según una fórmula tipo:
m = m0/(1-v2/c2)^1/2
siendo m la masa de un electrón en movimiento y m0 en reposo.
Esta fórmula fue obtenida en la Teoría de la Relatividad, que a la vez haría una revisión profunda del concepto de materia de la Física clásica.
domingo
LA FORMULA MAS FAMOSA
Veamos una forma simple de llegar a la fórmula más famosa de la Teoría de la Relatividad E = m c2.
dEc = dW = F ds
= d/dt (mv)ds = v d(m v)
Integrando por partes:
E = m v2 - m v dv = m0 v2/ (1-v2/c2) - m0 v dv/ (1-v2/c2)
Haciendo el cambio de variable v/c = v', queda, finalmente
E = (m-m0) c2
Esta fórmula implica la producción de energía nuclear a partir de los procesos de fusión y fisión, ya que el balance de masas entre los reactivos y los productos da un defecto o pérdida de masa, la cual se transforma en una enorme cantidad de energía, al estar multiplicada por c2.
La masa y la energía no son entes independientes. Una partícula en reposo tiene una energía E0 = m0 c2, y la misma partícula en movimiento, al cambiar de masa, cambia de energía: E = m c2
dEc = dW = F ds
= d/dt (mv)ds = v d(m v)
Integrando por partes:
E = m v2 - m v dv = m0 v2/ (1-v2/c2) - m0 v dv/ (1-v2/c2)
Haciendo el cambio de variable v/c = v', queda, finalmente
E = (m-m0) c2
Esta fórmula implica la producción de energía nuclear a partir de los procesos de fusión y fisión, ya que el balance de masas entre los reactivos y los productos da un defecto o pérdida de masa, la cual se transforma en una enorme cantidad de energía, al estar multiplicada por c2.
La masa y la energía no son entes independientes. Una partícula en reposo tiene una energía E0 = m0 c2, y la misma partícula en movimiento, al cambiar de masa, cambia de energía: E = m c2
CONFIRMACION DE LA RELATIVIDAD
Las espectaculares predicciones de la Teoría de Einstein fueron difíciles de comprobar experimentalmente, y por ello fue una Teoría controvertida. Hoy día está totalmente aceptada, tanto como lo puede ser la Física clásica de Newton o la Electrodinámica de Maxwell. Las pruebas confirmatorias son definitivas:
a). Comportamiento de partículas: experiencias de Guye y Nacken (1935) que confirman la relatividad de la masa. En cámara de burbuja, las colisiones de partículas lentas siguen la mecánica clásica, pero en las partículas rápidas, las trayectorias sólo se justifican aplicando la mecánica relativista.
b). Mesones atmosféricos. Los mesones mu se forman en lo alto de la atmósfera, por la acción de los rayos cósmicos, a una altura de 10 km. Según la mecánica clásica, hasta desintegrarse, el mesón recorrería 600 m, por lo que no deberían llegar a tierra. Sin embargo, se han detectado estos mesones a nivel terrestre, lo que se explica únicamente aplicando el efecto temporal relativista: los 2 microsegundos de tiempo propio se transforman en 30 microsegundos para el observador terrestre, tiempo suficiente para que alcancen nuestra superficie.
c). Emisor de radiación en movimiento. El desplazamiento al rojo de las líneas del espectro de cuerpos que se alejan, coinciden más con la realidad experimental aplicando física relativista, que predice un mayor aumento de las frecuencia de las líneas de lo que se deduce aplicando mecánica clásica.
d). Partículas aceleradas. En los enormes aceleradores de partículas existentes hoy en día, la relatividad se pone de manifiesto al alcanzar las partículas velocidades próximas a la luz. Se comprueba, por ejemplo, que los muones, mientras en reposo tienen una vida media de 2 millonésimas de segundo, a velocidad de 0,99975 c viven una diezmilésima de segundo, y realizan, por tanto, recorridos mayores de los calculados clásicamente. También se comprueba que en los aceleradores, las partículas que viajan a velocidades próximas a c son mucho más pesadas que cuando se encuentran en reposo.
e).- Velocidad de la luz. La invarianza de c queda demostrada con las experiencias de Sadeh, en el aniquilamiento del par positrón-electrón: los fotones generados llegan al mismo tiempo al contador, independientemente de las direcciones del par. En el CERN también se pone de manifiesto la imposibilidad de acelerar las partículas hasta alcanzar la velocidad de la luz: si se incrementa la energía aceleradora, no se produce un aumento de la velocidad de la partícula, sino un incremento de la masa.
f).- Transformación masa-energía. La relación E = m c2 se cumple directamente en los procesos de fusión y de fisión de las centrales nucleares y de las armas atómicas. El proceso inverso, transformación de energía en masa, también se cumple. Los experimentos de Anderson (1933) confirmaron que al frenar un fotón se origina un par electrón-positrón; para que se produzca este efecto, la energía del fotón debe ser superior, de acuerdo con la relatividad, a 2 m0 c.
g).- Interacción luz-gravitación. La fórmula relativista E = p c predice que la luz tiene cantidad de movimiento y, por tanto, masa; en consecuencia, debe interaccionar con los Campos gravitatorios: la luz debe curvarse al pasar por un Campo gravitatorio. Einstein calculó que la luz de una estrella, pasando rasante por el Sol, experimentaría una desviación de 1,74 segundos de arco. La confirmación experimental se realizó por un grupo de científicos británicos en 1919, en la observación de un eclipse total de Sol desde las islas Príncipe, momento en el cual es apreciable la curvatura de los rayos de un astro situado tras el Sol.
La Teoría de la Relatividad está confirmada, las experiencias avalan la Teoría y se cumplen las expectativas del Método Científico.
La Teoría de la Relatividad, finalmente, no es una elucubración teórica de un físico genial. Es una revolución dentro del mundo de la Ciencia que pone límites a la grandeza de Newton y abre la puerta a infinitas posibilidades. Rindamos culto a Einstein por abrir los ojos a la Física y marcar un nuevo camino por donde transitar en pos de la verdad científica, muy probablemente, la única verdad.
a). Comportamiento de partículas: experiencias de Guye y Nacken (1935) que confirman la relatividad de la masa. En cámara de burbuja, las colisiones de partículas lentas siguen la mecánica clásica, pero en las partículas rápidas, las trayectorias sólo se justifican aplicando la mecánica relativista.
b). Mesones atmosféricos. Los mesones mu se forman en lo alto de la atmósfera, por la acción de los rayos cósmicos, a una altura de 10 km. Según la mecánica clásica, hasta desintegrarse, el mesón recorrería 600 m, por lo que no deberían llegar a tierra. Sin embargo, se han detectado estos mesones a nivel terrestre, lo que se explica únicamente aplicando el efecto temporal relativista: los 2 microsegundos de tiempo propio se transforman en 30 microsegundos para el observador terrestre, tiempo suficiente para que alcancen nuestra superficie.
c). Emisor de radiación en movimiento. El desplazamiento al rojo de las líneas del espectro de cuerpos que se alejan, coinciden más con la realidad experimental aplicando física relativista, que predice un mayor aumento de las frecuencia de las líneas de lo que se deduce aplicando mecánica clásica.
d). Partículas aceleradas. En los enormes aceleradores de partículas existentes hoy en día, la relatividad se pone de manifiesto al alcanzar las partículas velocidades próximas a la luz. Se comprueba, por ejemplo, que los muones, mientras en reposo tienen una vida media de 2 millonésimas de segundo, a velocidad de 0,99975 c viven una diezmilésima de segundo, y realizan, por tanto, recorridos mayores de los calculados clásicamente. También se comprueba que en los aceleradores, las partículas que viajan a velocidades próximas a c son mucho más pesadas que cuando se encuentran en reposo.
e).- Velocidad de la luz. La invarianza de c queda demostrada con las experiencias de Sadeh, en el aniquilamiento del par positrón-electrón: los fotones generados llegan al mismo tiempo al contador, independientemente de las direcciones del par. En el CERN también se pone de manifiesto la imposibilidad de acelerar las partículas hasta alcanzar la velocidad de la luz: si se incrementa la energía aceleradora, no se produce un aumento de la velocidad de la partícula, sino un incremento de la masa.
f).- Transformación masa-energía. La relación E = m c2 se cumple directamente en los procesos de fusión y de fisión de las centrales nucleares y de las armas atómicas. El proceso inverso, transformación de energía en masa, también se cumple. Los experimentos de Anderson (1933) confirmaron que al frenar un fotón se origina un par electrón-positrón; para que se produzca este efecto, la energía del fotón debe ser superior, de acuerdo con la relatividad, a 2 m0 c.
g).- Interacción luz-gravitación. La fórmula relativista E = p c predice que la luz tiene cantidad de movimiento y, por tanto, masa; en consecuencia, debe interaccionar con los Campos gravitatorios: la luz debe curvarse al pasar por un Campo gravitatorio. Einstein calculó que la luz de una estrella, pasando rasante por el Sol, experimentaría una desviación de 1,74 segundos de arco. La confirmación experimental se realizó por un grupo de científicos británicos en 1919, en la observación de un eclipse total de Sol desde las islas Príncipe, momento en el cual es apreciable la curvatura de los rayos de un astro situado tras el Sol.
La Teoría de la Relatividad está confirmada, las experiencias avalan la Teoría y se cumplen las expectativas del Método Científico.
La Teoría de la Relatividad, finalmente, no es una elucubración teórica de un físico genial. Es una revolución dentro del mundo de la Ciencia que pone límites a la grandeza de Newton y abre la puerta a infinitas posibilidades. Rindamos culto a Einstein por abrir los ojos a la Física y marcar un nuevo camino por donde transitar en pos de la verdad científica, muy probablemente, la única verdad.
Suscribirse a:
Entradas (Atom)