Usuario discusión:Martingil

Contenido de la página no disponible en otros idiomas.
De Wikipedia, la enciclopedia libre

Teoría del Campo Unificado

12.- CONSTANTE DE ESTRUCTURA FINA. CAMPO UNIFICADO Dentro de las diversas teorías físicas, se utilizan una serie de constantes, G para el campo gravitatorio, c velocidad de la luz, h constante de Planck, etc. En general estas constantes tienen dimensiones físicas (m / sg por ejemplo para c) al relacionar magnitudes físicas distintas, en caso de la luz el tiempo y el espacio. Otras sin embargo no tienen dimensiones al relacionar magnitudes de la misma especie, este es el caso de la constante de estructura fina que en adelante llamare α. Esta constante relaciona la energía del campo electromagnético entre el protón y el electrón a la distancia de una longitud de onda compton del electrón y la energía en reposo del electrón. e2 ---------- ħ/mec e2 α = ----------------- = -------- = 1 / 137 (12.1) mec2 ħ c Se puede observar que esta constante no depende de la masa del electrón. Se interpreta como una medida de la intensidad del campo eléctrico se enuncia a veces como constante de acoplamiento del campo eléctrico. Esta constante es extraordinariamente importante en el desarrollo de nuestro universo. Si su valor fuera solo algo diferente, nuestro universo sería completamente distinto. Calcularé ahora la masa necesaria para generar un campo gravitatorio con la misma energía que un campo eléctrico generado por una carga e: G m2 / r = e 2 / r , obtenemos m = e / G1/2 En epígrafes anteriores he introducido el concepto horizonte de sucesos de una partícula m como Hs = 2G m / c2. Voy a calcular ahora la relación entre este horizonte de sucesos de m y su longitud de onda Compton λ c = ħ / m c sustituyendo m por el valor encontrado antes: 2G m ---------- c2 2e2 2α = ----------------- = -------- = 2 / 137 ħ ħ c ---------- m c

Se obtiene el mismo valor de la constante de estructura fina. Se podría generalizar este resultado. Para ello voy a considerar m como una manifestación energética en general, es decir E = ħ ω = m c2, de modo que m = ħ ω / c2. Sustituiré ahora m por su valor en la expresión anterior: 2G ħ ω / c2 ------------- Hs c2 G ħ ω2 α = ----- = ----------------- = ------------ 2λ c 2 ħ c5 ------------- c ħ ω / c2

Este resultado puede tener una interesante interpretación. Si consideramos que G ħ / c5 es la expresión del tiempo de Planck tp2 y ω es una velocidad angular, cabría interpretar α como un ángulo sólido. El valor de α para la partícula 1/2 mp es 1. Desde este punto de vista se podría identificar la interacción entre universos con el campo unificado. Según las últimas teorías de las supercuerdas, todas las características de las partículas elementales pueden ser descritas desde la perspectiva de un universo de 11 dimensiones. Los campos, incluyendo el gravitatorio, surgen de la rotura espontánea de ciertas simetrías que estarían presentes en el universo primitivo. La novedad fundamental de estas teorías es que no asignan una característica puntual a las partículas, sino que las tratan como entes con múltiple dimensionalidad: cuerdas, membranas, etc. Estas nuevas partículas estarían vibrando con diferentes modos en diferentes dimensiones. Estas vibraciones se corresponderían a las velocidades angulares encontradas en los párrafos anteriores. Cuando en estas teorías se habla de cuerdas o membranas, no se está hablando de "algo" con forma de cuerda o membrana, sino que las propiedades de las partículas se pueden describir utilizando el modelo de un cuerda o una membrana vibrando. El modelo que propongo solo habla de 9 dimensiones, sin embargo, si consideramos que los módulos del vector tridimensional tiempo y del vector tridimensional generado por las dimensiones arrolladas (microscópicas) pueden parecer dimensiones desde el subespacio de dimensiones corriente (nuestro tiempo corriente es un ejemplo), obtenemos las 11 dimensiones de las teorías de las supercuerdas.


FLECHA ELECTROMAGNETICA DEL TIEMPO. ORIGEN DEL VALOR NUMERICO DE LAS MASAS EN REPOSO DEL ELECTRON Y DEL PROTON La simetría respecto al tiempo de las ecuaciones que describen al campo electromagnético introduce un misterio en la realidad que se observa; esta simetría sugiere que una carga al ser acelerada emitirá ondas electromagnéticas tanto hacia adelante en el tiempo como hacia atrás, la reacción a la fuerza aceleradora será producida tanto por la respuesta del resto del universo pasado como del universo futuro. El hecho de que solo se observen ondas electromagnéticas saliente induce a pensar que el universo pasado se comporta como un mal absorbente y el universo futuro como un buen absorbente. Solo el modelo universo estacionario es capaz de justificar la respuesta correcta en ambos sentido del tiempo. (Jayant Narlikar. La estructura del Universo). En un universo con densidad de energía crítica, tal como necesariamente establece el modelo Universo Viviente, el valor de ésta depende del radio de Hubble: ρ= 3 c2 / 8 π G Rh2 (13.1) Si con centro en un punto (P) consideramos una esfera de radio Rh (radio de Hubble), obtenemos una energía total M con el valor siguiente: M = ρ(4/3) π Rh3 (13.2) Sustituyendo en esta expresión el valor de la densidad (13.1) obtenemos: M = c2 Rh / 2 G (13.3) Consideremos un ángulo sólido ω tal que el volumen V del cono que subtiende desde el punto P hasta Rh sea tal que la densidad de energía dada por M/V, donde M es la energía calculada en (13.2), sea numéricamente igual a la masa del electrón me = 9,1 10-28 g/cm3. Esta consideración nos asegura que si la carga eléctrica tiene alguna relación con la masa, en el cono indicado habrá al menos una carga eléctrica y por tanto cualquier onda electromagnética emitida desde el punto P será absorbida en su trayecto, independientemente de su valor, a través de dicho cono. El volumen considerado será V = Ω π Rh3 / 3. Por consiguiente obtenemos: me = 3 c2 (1 cm3) / 2 G Ω π Rh2 ω = 3 c2 (1 cm3) / 2 G me π Rh2 Si admitimos un valor del radio de Hubble de 1,796 1028, obtenemos para ω el valor de 0,021892 rad. que coincide con el triple del valor de la constante de estructura fina: ω = 3 α. Dado que α = e2 / c ħ (ħ = h /2π), podemos encontrar una expresión función de las constantes fundamentales que nos dará el valor de la masa en reposo del electrón: me = c3 ħ (1 cm3) / 2 G e2 π Rh2 (13.4) La expresión 1 / Rh2 es la constante cosmológica λ , e2/c ħ es α, la expresión (13.4) quedará: me = (1 cm3) c2 λ / 2 G α π (13.5) Es fácil ver que esta relación no depende de la magnitud longitud, tampoco de la elección arbitraria de su unidad ni valor, usando como unidad pulgadas en lugar de centímetros seguiría siendo válida. Esto asegura que cualquier onda electromagnética emitida desde P será absorbida en su trayecto hacia el futuro. La expresión (13.5) podríamos aplicarla a las otras tres partículas elementales cargadas, los quarks. En este caso las cargas son 2/3 y 1/3 de la carga del electrón, obtendríamos los valores de 9 me y 9/4 me para las masas en reposo de los quark down y up respectivamente. Si consideramos que un protón se compone de dos quark up y un quark down, la masa en reposo de los componentes de un protón será 13,5 me, el resto hasta la masa en reposo del protón sería debida a la energía de enlace generada por la interacción fuerte. El valor de la masa en reposo del protón se obtiene a partir de la siguiente expresión en la que solo participa la masa del electrón, la constante de estructura fina y el número 13,5: mpr = 13.5 me/[α exp(Σn=1,2,3... n2 αn)] = 1836,1375 me (13.6) Si tomamos el valor de 9,10938188 10-28 g. para la masa del electrón y el valor de 7,29735254 10-3 para α, el valor obtenido con la expresión (13.6) para la masa del protón con los cuatro primeros términos de la serie es 1,67260775 10-24 g. El valor real medido de la masa del protón es 1.67262158 10-24 g.: 1.67262158 10-24 g = 1836.1527 me (13.7) No obstante, la expresión (13.6) es válida con los quark en reposo. En el protón los quarks están en movimiento. En consecuencia la sopa de quarks, en el interior del protón, sufrirá un incremento en su masa que justifica la diferencia entre las expresiones (13.6) y (13.7). Si sustituimos en la expresión (13.4) el valor de todas las constantes conocidas, podemos encontrar los valores del Radio de Hubble y de la Constante de Hubble: Radio de Hubble: 1,79619 1028 cm. Constante de Hubble: 1,6691 10-18 sg-1. Constante Cosmological: 3,099536 10-57 cm2 Naturalmente, tal como indiqué en los epígrafes 2 y 3, este valor del radio de Hubble corresponden a la esfera temporal, es decir, al radio del agujero negro en el universo madre. Dentro del agujero negro, en el universo hijo, el valor observado en las coordenadas temporales t1 y t2 será sus respectivas proyecciones sobre los ejes temporales 1 y 2; dado que son ortogonales y si admitimos que el universo es isótropo y homogéneo también en el espacio de los tiempos, se concluye que el radio de Hubble observado será sin(45º) * Rh, en este caso 1,2701 1028 cm. que corresponde a una edad aparente de 13.434 millones de años. La expresión (13.4) parece indicar que la masa del electrón fue más grande en el pasado, esto implicaría una variación significativa en los niveles energéticos de los átomos que no se observa. En consecuencia tanto Rh como H serían constantes a lo largo de la historia del tiempo t2, es decir, este modelo describe un Universo Estático. Si tenemos en cuenta que este modelo tuvo origen en un postulado cuántico, la situación que describe (13.1) es análoga a la dualidad onda-partícula, en este caso la dualidad sería Universo Bigbang - Universo Estático. No debemos renunciar a ninguno de ellos, cada uno de ellos tiene un momento en que puede ser aplicado con éxito. El universo habría nacido en la eclosión de un agujero negro en el núcleo de una galaxia en nuestro Universo madre, creciendo sobre el tiempo gravitatorio y alcanzando el tamaño apropiado para permitir la aparición de las cargas eléctricas y el tiempo electrodébil, a partir de ese momento el universo se encontraría en un estado estacionario con expansión aparente. En sección 14 se detalla este proceso. La edad real de nuestro universo solo tendría sentido desde el punto de vista de unos hipotéticos observadores en nuestro Universo madre. Este modelo también podría dar el origen de los valores de las masas en reposo de las partículas elementales estables: asegurar la respuesta electromagnética correcta del Universo tanto en el futuro como en el pasado.


14.- DESPLAZAMIENTO AL ROJO COSMOLOGICO La luz que se recibe de las galaxias lejanas sufre un desplazamiento al rojo de origen cosmológico. El mecanismo que produce este desplazamiento al rojo, según la Cosmología clásica, queda explicado por medio de la aplicación de la teoría de la Relatividad General al Universo. En la sección de link interesantes se puede consultar el sitio web "Cosmología-Astrofísica", en él se puede leer una descripción extensa de dicho mecanismo. Como resumen se puede decir aquí que este alargamiento de las longitudes de ondas de los fotones que se reciben se debe a la expansión del espacio-tiempo sufrida por todo el universo durante el viaje de dichos fotones. El modelo Universo Viviente proporciona otra explicación alternativa que, como se verá, está mas de acuerdo, curiosamente, con la idea original de Einstein sobre el universo. En el epígrafe 5 obteníamos una expresión (5.4) que aplicada a los fotones explicaba la desviación que sufren al atravesar un campo gravitatorio. Esta expresión podemos aplicarsela a cualquier partícula en las mismas circunstancia. En estos casos la velocidad de la partícula ya no será c sino v, la expresión 5.4 quedará como: v2 = v22 + 2 G M / r - c2 r2/ Rh2 (14.1) La velocidad que observamos es v2, por ejemplo, en la superficie de la Tierra una partícula en reposo tendría v2=0, y si despreciamos el termino cosmológico obtenemos: v2 = 2 G M / r (14.2) La expresión de γ para esta partícula sería γ = (1 - 2 G M / c2 r)1/2, en completo de acuerdo con la experiencia. La velocidad v que se indica en 14.2 aplicada a una fuente luminosa hará que ésta sufra el efecto Doppler, en este caso sería un efecto Doppler gravitatorio, si se observa desde un sistema en reposo, es decir, con v = 0, un satélite geoestacionario, por ejemplo. Apliquemos ahora 14.1 al caso de la observación de una galaxia lejana. En este caso, el término gravitatorio es despreciable, obtendríamos: v2 = v22 - c2 r2/ Rh2 (14.3) En este punto hay que discutir que puede representar la velocidad v; en el caso de una partícula inmersa en un campo gravitatorio, podríamos asignar v = 0 a su estado de movimiento en caida libre, se observaría una velocidad v22 = -2 G M / r, es decir, la velocidad de escape. Podemos suponer que en el caso de la galaxia lejana, la velocidad v de cualquier cuerpo en caida libre en el campo gravitatorio del universo es la velocidad respecto al fondo uniforme de microondas. En el caso de la Tierra, según mediciones, es de 600 Km/sg aproximadamente, podemos suponer que el resto de objeto del universo tienen una velocidad del mismo orden. Esta velocidad es también despreciable respecto al término cosmológico, quedará por tanto: v22 = c2 r2/ Rh2 (14.4) Esta es la misma velocidad que contemplan los modelos de universos clásicos, sin embargo, en este caso está justificado utilizar la expresión del desplazamiento Doppler relativista para calcular el redshif cosmológico: γ = (1 - r2/ Rh2 + r2/ Rh2)1/2 = 1 λo / λe = γ / ( 1 - r/ Rh ) = 1 / ( 1 - r/ Rh ) (14.5) z = r / (Rh - r) (14.5) Esta expresión de z es la misma que se obtiene a partir de la aplicación de la Relatividad General, sin embargo, en este caso surge de la aplicación del efecto Doppler relativista a una fuente luminosa que se aleja con velocidad v2 sobre el tiempo electromagnético t2. Esta velocidad v2, desde un punto de vista cuántico, da información de la longitud de onda de De Broglie de la partícula, en el límite cuando r tiende a Rh vemos que esta longitud de onda se hace igual a la longitud de onda Compton. ¿Implica un movimiento real?. Si calculamos la energía total de la partícula, podemos ver que es igual a su energía en reposo (γ=1), es decir, su energía cinética es cero y podemos decir que no existe un movimiento "real", su longitud de onda de De Broglie coincide con la longitud de onda Compton. Esta expansión aparente es análoga a la contracción aparente que se observa sobre el tiempo gravitatorio t1. La expansión real se produce sobre el tiempo t3 y, dado que todas las partículas comparten la misma coordenada, no puede ser observada directamente. El modelo Universo Viviente describe, por tanto, un universo estático tal como propuso inicialmente Einstein. La dualidad de descripciones que proporciona este modelo surge de forma natural de la naturaleza cuántica del postulado propuesto en el epígrafe 1.

15.- BIG BANG. ORIGEN DEL UNIVERSO Según la hipótesis que planteo en estas páginas, el origen de nuestro universo sería una partícula de Planck con densidad de energía 1,23 1093 g/cc, Radio longitud de Planck y edad tiempo de Planck, generada por el colapso de una estrella masiva en el núcleo de una galaxia joven en un universo mas antiguo que el nuestro del que seríamos "hijo". Este fenómeno sería facilmente asimilable a lo que ahora podemos observar como cuasar. Con un simple cálculo, podemos ver que durante el primer segundo el universo creció hasta 2 1038 g. Si calculamos las temperaturas en diversos momentos de su historia (cada momento se caracteriza por un número entero N) conociendo la densidad ρ = 3 mp / 8 π N2 lp3, podemos verificar que las temperaturas se corresponden fielmente a las teóricas del universo según la versión standard del Big Bang. Podríamos considerarlo como el momento de la concepción de un universo. A continuación trataré de dar una interpretación personal a los resultados encontrados en los epígrafes anteriores. La hipótesis en la que se basa este modelo propone un universo con 6 dimensiones macroscópicas, tres temporales y tres espaciales y otras tres microscópicas. Estas dimensiones nacen a partir de la aparición de los diversos tipos de sucesos, es decir, el devenir histórico del universo no sería una sucesión de sucesos desarrollados en estas dimensiones, sino el surgimiento de diversos tipos de sucesos que darán lugar a la dimensionalidad del universo al ser observados (las interacciones son los mecanismos de observación), las dimensiones de los universos son parámetros que permiten describir los sucesos. Naturalmente no todos los sucesos debieron surgir al inicio del universo. El primer suceso (Big Bang) define la coordenada cosmológica t3 y es generado por la interacción unificada (interacción entre universos). Posteriormente nace la interacción gravitatoria, ésta da lugar a la aparición de sucesos gravitatorios (redistribución de las densidades de energía) definiendo la coordenada gravitatoria t1 y las espaciales x, y y z. Durante un determinado tiempo (medido sobre t3) el universo careció de cualquier otro tipo de suceso, desde el punto de vista de la historia de los sucesos electromagnéticos (coordenada t2) este periodo puede ser identificado con el periodo inflacionario propuesto por Alan Guth. Este periodo, medido sobre la coordenada cosmológica, pudo durar 19.000 millones de años, no existirían las cargas eléctricas y durante él pudieron formarse grandes acumulaciones de energía precursoras de las actuales galaxias (¿galaxias negras?). Al llegar al tamaño adecuado (ver epígrafe 13), pudo instaurarse la flecha del tiempo electromagnética (coordenada t2) y con ella las cargas electricas, las acumulaciones de energía anteriores se convirtieron en pequeños Big-Bang. Las ondas de choque al encontrase unas con otras generaron las estructuras a gran escala formadas de galaxias que se observan ahora; desde este punto de vista, la estructura a gran escala del universo se formó a la vez que las galaxias que la constituyen, hecho que las últimas observaciones parecen confirmar. Los sucesos en el ámbito de las partículas elementales (interacciones fuerte, débil y electromagnética), como he indicado antes, surgieron posteriormente en el momento en que nacieron las cargas de color, débiles y eléctricas (ver epígrafe 13), es decir, en el momento en que pudo instaurarse flechas del tiempo en cada ámbito (roturas de simetrías). El concepto tiempo en este caso se refiere a la "función tiempo", para los quarks en el interior de los hadrones, nuestro espacio tridimensional es su tiempo tridimensional. El estado del universo posterior a la instauración de estas flechas del tiempo se caracteriza por su carácter estacionario. Encontrandonos actualmente en uno de estos estados estacionarios. Este proceso es similar al que sufren un protón y un electrón al formar un átomo. Esta instauración de flechas del tiempo (roturas de simetrías) implica la definición de todos los sucesos, de todas las cadenas de causa-efecto desde el comienzo hasta el final de todas las historias. Con el Big Bang se crearon todas las posibles Historias. Este modelo compatibiliza la interpretación de Coppenagüe de la mecánica cuántica con la interpretación transaccional de John Cramer y con la de múltiples mundos de Everett-Wheeler. También explica la no localidad del Universo. Sin embargo, desde nuestro punto de vista como observadores en el tiempo t2, el universo aparece en expansión con un aparente freno geométrico gravitatorio. Si hacemos el esfuerzo de imaginarnos el aspecto del universo como observadores en el tiempo t1, nos daríamos cuenta de que en este nuevo universo el aspecto es en contracción con un aparente freno geométrico electromagnético. ¿Cuál es el aspecto "real" del universo?. Si recordamos el epígrafe 1, las partículas 1/2 masa de Planck, que sirven de portadoras de la interacción entre universos, entran con energía mecánica total nula. Este hecho unido a la criticidad intrínseca que propone este modelo para la energía total del universo respalda la asunción del estado estacionario como la mejor descripción para nuestro universo actualmente. La propuesta cosmológica del modelo Universo Viviente podríamos resumirla de la siguiente forma: El Universo nació al eclosionar un agujero negro en nuestro Universo madre, este suceso se puede identificar con el Big Bang y generó la coordenada cosmológica t3 y las espaciales. Creció hasta alcanzar diversos estados estacionarios (estáticos) de equilibrio entre la interacción con su Universo Madre y la interacción con sus diversos Universos hijos (nucleos de galaxias), estos estados estacionarios permiten la aparición de sucesos electromagnéticos y gravitatorios generando las coordenadas temporales electromagnéticas y gravitatoria, en la primera se observa al universo en expansión en la segunda se observa al universo en contracción. Actualmente nos encontramos en el último estado estacionario. En consecuencia se podría decir que este modelo cosmológico es el único que cumple el principio cosmológico perfecto.

16.- MODELO DE UNIVERSO VIVIENTE Este modelo sugiere que los universos se comportarían como seres vivos: nacen, crecen, se reproducen y eventualmente mueren. En multitud de estudios y observaciones se describen y atribuyen características vivientes a todo tipo de estructuras, entes y fenómenos que a primera vista parecerían pertenecer al reino de lo inanimado. James E. Lovelock descubrió la esencia vital de nuestra Tierra. Porqué detenernos en ella. La vida no es un fenómeno “raro”. Sospecho que es la esencia de todas las cosas, incluido nuestro universo. La apariencia geométrica de tipo fractal que presenta la naturaleza en todas sus manifestaciones puede también aplicarse a nuestro universo y a las leyes que lo rigen, el universo completo podríamos imaginarlo como una gigantesca forma geométrica de tipo fractal desarrollandose permanentemente con un periodo de un tiempo de Planck. Una de las características del modelo que presento, es la energía total nula de cualquier universo; las partículas "masa de Planck" que se inyectan en los universos, entran y salen con energía mecánica nula. Solo durante el instante en que entran o salen aparece una indeterminación en el valor de la energía de un universo y siempre menor que la masa de Planck. Podríamos imaginar el universo total generado por el movimiento de una única masa de Planck recorriendolo desde el comienzo hasta el final. La edad y el tamaño de nuestro universo es finita, la edad y el tamaño del universo completo postulado en esta web pienso que jamás podremos ni imaginarlos. En este punto se entra en el terreno de las creencias religiosas, al principio y al final del universo completo, somos libres de imaginar lo que deseemos. Este modelo de universo contiene la virtualidad de ser isótropo también en el tiempo. En efecto, en cualquier momento de la historia del universo completo, podemos encontrar universos hijos en cualquier estadio de evolución. Podemos decir que también es un universo estacionario. En el primer párrafo indiqué que los universos eventualmente podrían morir. Esta muerte sobrevendría al quedar aislados en el universo madre, no habría aporte de energía y por tanto los procesos cuánticos que dependen de la densidad de energía del vacío (campos cuánticos) quedaría paralizados. La radiación de Hawking se encargaría de disolver el universo emitiendo partículas con 1/2 de la masa de Planck. Desde este punto de vista este modelo es compatible también con el modelo de universo cíclico. La forma de desarrollarse la emisión de energía por radiación Hawking podríamos describirla como una emisión por efecto túnel de una partícula de Planck, ésta se desdoblaría, la mitad volvería al universo hijo y el resto se emitiría al universo madre en un tiempo de Planck contrayéndose una longitud de Planck. Unos hipotéticos observadores dentro del universo hijo observarían al universo en contracción.

17.- PRINCIPIO DE MACH. ANTIGRAVEDAD El principio de Mach incide en el problema de la observabilidad de las rotaciones, en el concepto fuerza de inercia y en el concepto fuerza centrífuga. Según él el movimiento de rotación y su efecto, la fuerza centrífuga, se deben al movimiento relativo respecto al fondo de estrellas inmóviles (resto del universo). Son éstas las que de alguna forma provocan la fuerza de inercia y la fuerza centrífuga en los objetos acelerados. El modelo Universo Viviente propone una nueva visión de este problema. Imaginemos un universo con solo dos objetos ma y mb separados una distancia r, esta situación es claramente irreal, sin embargo, podemos imaginarla. Estas dos masas, en principio, sufrirían una atracción gravitatoria que podría ser observada al medir la distancia r, sin embargo, el sistema, si las dos masas rotan alrededor de su centro de masas con un momento angular tal que compense la fuerza gravitatoria, parecería equivalente e indistinguible de un sistema en el que no existiese la fuerza gravitatoria y no rotaran o de un sistema en que uno solo de los cuerpos sufriera una rotación interna. El principio de Mach dice que una rotación en este sistema no podría ser observada si no existiera un fondo de estrellas fijas. El modelo Universo Viviente incluye este principio. La expresión (4.3) postulaba la existencia de dos velocidades derivadas sobre los tiempos t1 y t2: v2= v22 + v12 (1) Anteriormente también definí sistemas en reposo aquellos con v constante. La velocidad v1 está definida sobre el tiempo t1. Consideremos las partículas anteriores rotando con un momento angular L, este momento será debido en su mayor parte a la velocidad v2 (recordemos el postulado del epígrafe 1), consideremos para simplificar una rotación perfectamente circular (sin excentricidad), la velocidad v2 podemos descomponerla en una componente radial y otra componente tangencial: v22 = v2r2 + v2t2 El momento angular L dependerá exclusivamente de la componente tangencial, la he llamado tangencial por analogía con la velocidad en una traslación, en realidad esta velocidad es la responsable del momento angular, y éste puede ser debido a un movimiento de traslación o rotación sobre un eje interno, es decir, en las siguientes expresiones, L es la única constante del movimiento siendo r o v dependientes del sistema de referencia que se elija, se decir, en la siguiente expresión los valores de v2t y r son arbitrarios con tal de que L sea el valor correcto del momento angular: L2 = m2 v2t2 r2 (2) v2t2 = L2 / m2 r2 (2) m = ma mb / (ma + mb) Sustituyendo en (1) los valores de ambas velocidades: v2 = v2r2 + L2/ m2 r2 + c2(r2 ρ(r) / Rh2 ρ(Rh) - c2 r2/ Rh2) (3) La expresión (3) es la que aporta este modelo, de ella se pueden extraer algunas conclusiones: en primer lugar, en nuestro universo imaginario r = Rh y ρ(r) = ρ(Rh), por consiguiente v2 = v22. Es decir, no serían observables ni la fuerza centrífuga ni la fuerza gravitatoria y r permanecería constante (no existe velocidad v2 radial). En cambio si r <> Rh y ρ(r) <> ρ(Rh), existirán otros objetos en el universo y aparecerán por consiguiente tanto la fuerza centrífuga como la gravitatoria. Si suponemos v2r = 0: v2 = L2/ m2 r2 + 2 G M / r - c2 r2/Rh2 (4) Si v = constante, es decir, un sistema inercial: v2 - L2 / m2r2 = 2 G M / r - c2 r2/ Rh2 (5) Si aplicamos la divergencia obtenemos: - L2 / m2r3 = G M / r2 + c2 r/ Rh2 (6) Expresión que indica que el momento angular sobre el tiempo t2 tiene carácter antigravitatorio; el término - c2 r2/ Rh3 no aparece en (6) al considerar en principio constante a Rh. La expresión (6) es la clásica expresión que permite mantener en órbita a nuestros satélites artificiales. Sin embargo, si consideramos que L es una constante del movimiento y que en las expresiones anteriores significaba el momento angular total incluido el spin o momento angular intrínseco de cada partícula u objeto el resultado es claramente sorprendente: cualquier objeto con un momento angular L podría sufrir una fuerza antigravitatoria equivalente a la expresada en (6). Es decir, podríamos definir la fuerza antigravitatoria, despreciando el término cosmológico, como : F = L2 / m2 r3 (7) El momento angular L es el total del sistema incluido cualquier momento angular interno que tenga el objeto. Si nos situamos sobre la Tierra, este modelo predice que un objeto de masa m "flotará" (dependiendo de la orientación de L) con un momento angular L de valor: L = (G M m2 r)1/2 (8) A efectos prácticos, aprovechar esta propiedad es bastante complicado. Si aplicamos (8) a un objeto en forma de aro de masa m y radio r0 que gira alrededor de un eje con velocidad angular ω y momento de inercia I = m r02 obtenemos: m r02 ω = (G M m2 r)1/2 y ω = (G M r / r04)1/2 Conseguir la velocidad angular necesaria, sobre la superficie de la Tierra, para hacer que el cuerpo flote significa una velocidad tangencial igual a 0,99 c con un radio r0 de valor mínimo 169 metros, si el aro tuviera una masa de 1 Kg, la energía necesaria para generar este giro sería del orden de 1,8 1044 ergios (el equivalente a la desintegración de 2 1017 toneladas de materia, claramente desalentador. Sin embargo, los fotones tienen momento cinético e intrínsecamente spín 1 (independiente de su energía); ¿sería factible confinar suficiente número de fotones, apropiadamente organizados, en el interior de un vehículo de tal forma que el conjunto tuviera el momento angular requerido?. En el caso del ejemplo anterior, harían falta 2,39 1062 fotones. Si se pudiera conseguir fotones con frecuencia 1.66 10-18 hz., la energía necesaria sería 2,6 1018 ergios, equivalente a 2,9 10-3 gramos de materia desintegrada. La velocidad v1 también puede generar un momento angular, al menos, tal como se indicó en el postulado del epígrafe 1, ½ ħ. En general el momento angular debido a v1 de un objeto m respecto de un observador M se puede expresar como: L12 = (2GM/r) m2 r2 sen(α)2 Donde α es el ángulo que forman r y v1; si consideramos que la distancia mínima entre m y M sería el horizonte de sucesos de M, entonces sen(α) = 2GM / c2 r. L12 = (2GM/r)3 m2 r2 / c2 La velocidad v1 también podemos considerarla compuesta por una componente radial y otra tangencial: v12 = v1r2 + v1t2 La componente tangencial es la que genera el momento angular y éste tiene carácter antigravitatorio, podemos pensar que en las transformaciones de Lorentz habrá que descontar esta velocidad. El valor de v1t, considerando L1 como constante del movimiento, será: v1t2= L12 / m2 r2 v1t2 = (2GM/r)3 / c2 Las trasformaciones de Lorentz se podrían generalizar descontando esta velocidad, llamando rh al horizonte de sucesos de M, de la siguiente forma: γ = (1 - v22/c2 - (2 G M / r c2)(1 - rh2/r2) + r2/ Rh2 )1/2 (9) En esta expresión podemos ver que cuando r se hace igual a rh, la velocidad sobre el tiempo t1 se hace 0. Así mismo, en el horizonte de sucesos de un agujero negro γ vale (1 - v22/c2 + r2/ Rh2 )1/2, tal como habíamos visto en el epígrafe sobre el desplazamiento al rojo cosmológico. Cuando se acumula suficiente energía (una masa de Planck), el agujero negro absorberá media masa de Planck y expulsará el resto hacia su universo madre. La expresión (9), podríamos haberla usado en la determinación de la precesión del perihelio de Mercurio, en el epígrafe 8. Haciendo los mismos cálculos encontraríamos una diferencia respecto al resultado de la TGR inapreciable, sin embargo esta diferencia puede ser apreciable en campos gravitatorios intensos o cuando r es pequeño como, por ejemplo, en el caso de la rotación diferencial solar.


Teorías de Unificación A pesar de los reiterados trabajos que se difunden sobre «Teorías Unificadas» en la literatura científica y en las crónicas de revistas –tanto especializadas como de circulación masiva– en el fondo se trata de reeditar un viejo anhelo de la civilización humana. Si nos introducimos a investigar relatos de antiguas mitologías sobre el mundo, es muy seguro que pronto nos encontremos ante las primeras «teorías unificadas». Sus autores idearon una elaborada historia en la que había un lugar para todo y todo tenía su lugar. Obvio que no se trataba de teorías científicas sobre el mundo en el moderno sentido de la palabra, pero sí eran intuiciones donde se entrelazaban las conjeturas, las creencias, lo conocido y lo desconocido para producir un cuadro único con un «significado», en el que los autores podían introducirse con una confianza nacida de su interpretación del mundo que los rodeaba. Con la evolución y desarrollo de la civilización humana fueron agregándose más cosas a la historia, algunas simples otras complejas, volviéndose ésta, gradualmente, cada vez más artificial y complicada. . Además, mientras estos relatos apuntaban a grandes extensiones del conocimiento al asimilar verdades observadas sobre el mundo como un todo único y coherente, carecían totalmente de rigor y profundidad: esto es, de la habilidad para extraer más de sus historias de lo que habían puesto en ellas anteriormente. Las teorías científicas modernas sobre el mundo no se sostienen por sucesivas conjeturas, refutaciones, ni tampoco, creencias o credos, sino que por «programas de investigación» rigurosos y profundos. Programas que buscan el hallazgo de nuevas predicciones y explicar fenómenos no incorporados en las especificaciones iniciales de las teorías. Un programa de investigación científica es un conjunto de teorías, y sus anexos, afines y coherentes. Cada programa de investigación está estructurado mediante: a) un núcleo duro ("hardcore"), constituido por las teorías fundamentales del programa, heurístico negativo (la heurística es la capacidad de generar nuevas investigaciones); b) un cinturón protector externo, heurístico positivo, constituido por hipótesis de diversa índole capaces de explicar experimentos o situaciones y predecir nuevos hechos. Todo hecho nuevo atinente que aparece (situación o experimento) es confrontado primero con el cinturón externo del programa; si es explicable o concordante con éste, el programa se fortalece; si no es así, se modifica el cinturón protector. Cuando el desacuerdo es de tal magnitud que amenaza al núcleo duro, el programa está en serias dificultades. Ahora bien, un programa de investigación es progresivo en tanto su contenido teórico (su capacidad de generar predicciones) se adelante al contenido empírico (generación de situaciones problemas), es regresivo o degenerativo cuando los hechos se anticipan a la teoría y el programa puede ofrecer, entonces, sólo explicaciones post-hoc. De este modo, el programa progresivo va asentándose, mientras el regresivo pierde terreno, y supera a este último. Un programa de investigación para cualquiera de las ramas de la física no se encuentra excluido de las características que hemos descrito en los párrafos precedentes. Pero sí se debe tener en consideración para algunas sus especialidades, como las que se articulan para estudiar el cosmos, la esencia de sus conocimientos es su propia incertidumbre, pues las predicciones físicas no pueden ser exactas, toda vez que es imposible considerar en los cálculos todas las variables que podrían influir en un evento dado. Y ello surge de la naturaleza misma, probabilística y secuencial, del universo. De ese modo, las proposiciones que puedan plantearse sólo son significativas si se determina su grado de probabilidad (éste se logra en forma inductivo-empírica) y se aceptan aquellas de máxima probabilidad. Por lo general, los resultados que se obtienen en los programas de investigación en física reflejan más bien los métodos usados en ellos y, por ende, es posible predecirlos analizando los métodos que en éste se usen en cada caso. Por tanto, lo que los científicos conocen de la realidad lo determinan ellos mismos a priori al seleccionar sus métodos. Las conclusiones que se puedan obtener del programa de investigación, sin embargo, para sus ejecutores no representarán –en ningún caso– la verdad indiscutible, establecida para siempre y que puede terminar definitivamente cualquier discusión. La importancia que pueda tener esas conclusiones radica en su eficacia v eficiencia, en la resolución de muchos problemas del hombre, y su validez. En años recientes ha existido un renovado interés de los físicos en programas de investigación para la consecución de la posibilidad de una «Teoría Unificada». En el desarrollo de diferentes secciones de este capítulo veremos cuál es el significado de esta teoría y cómo, a pesar de ser necesaria para nuestra descripción del universo y su contenido, está lejos de bastar para completar este entendimiento. No podemos «reducir» todo lo que vemos a una «Teoría Unificada», en el estilo de los físicos de partículas. Tenemos que incluir otros factores para completar una descripción científica del universo. Una de las lecciones que aparecerá en nuestro relato es hasta qué punto es peligroso sacar conclusiones sobre la «ciencia», o el «método científico» en general, al tratar un tema como el reduccionismo, o los méritos relativos de la religión y de la ciencia. Las «ciencias locales», como la biología o la química, son muy diferentes de la astronomía o de la física de partículas. En la ciencia local podemos recoger virtualmente cualquier información que deseemos, llevar a cabo cualquier experimento, y (lo más importante de todo) controlamos todas las posibles fuentes de sesgos sistemáticos introducidos por el sistema experimental o por el proceso de reunir observaciones. Los experimentos pueden repetirse de diferentes maneras. Este no es el caso en astronomía: no podemos experimentar con el universo; sólo podemos aceptar lo que nos ofrece. Lo que vemos está inevitablemente predispuesto por nuestra existencia y nuestra visión de ella: los objetos intrínsecamente brillantes están invariablemente sobrerepresentados en estudios astronómicos. Asimismo, en la física de partículas de alta energía, una gran limitación se impone a nuestra habilidad para experimentar. No podemos alcanzar, experimentando directamente, las muy altas energías requeridas para resolver muchos de los secretos del mundo de las partículas elementales. La filosofía de la ciencia ha dicho mucho sobre el método científico, suponiendo la existencia de un ambiente ideal en el que cualquier experimento deseado es posible. Hasta donde yo sé, no ha tratado la realidad de las posibilidades experimentales limitadas con el mismo entusiasmo. Una «Teoría Unificada» nacida de un programa de investigación que convoque la idea de una ley física sencilla y única que explique la totalidad de la existencia material, es la más cara aspiración de la mayoría de los integrantes de la comunidad de físicos. Esa ley física explicaría el origen del universo, su contenido y su destino. Todas las demás leyes naturales podrían deducirse racionalmente de esta única ley. El descubrimiento de una ley así sería el triunfo definitivo de la física: se completaría la explicación lógica de los fundamentos de la existencia. Nadie, ni siquiera los físicos, tienen prueba alguna de que exista tal ley. Es fácil ver que sería muy problemática. Quizá la idea misma de la ley física se descomponga a cierto nivel. Por ejemplo, la descripción matemática de la naturaleza, que hasta ahora no ha fallado nunca a los físicos, podría no servir para la tarea de expresar esa ley. Otra posibilidad es que esa ley exista, pero que el entendimiento humano no pueda comprenderla. Ni siquiera una superinteligencia artificial de capacidad más que humana podría abarcar la propia ley general. En consecuencia, esa ley no podría descubrirse. Las leyes físicas son comparables a las reglas que se dan para la práctica de los deportes o de los juegos de azar. Pero, a diferencia de éstas, elaboradas por seres humanos, las leyes físicas parecen algo inherente al orden del universo, que no inventaron los humanos. A veces, se cambian las reglas del juego para permitir, por ejemplo, un equilibrio en caso de diferencia notoria de habilidad o fuerza. En tal caso, hay una norma no expresa, que rige la modificación de las reglas: la de que se desea que el juego sea más interesante y competitivo igualando a los adversarios. Podemos suponer que las leyes físicas cambian también así, pero que existe una nueva ley que rige el cambio. Es muy posible, que, cuando los físicos descubran nuevas leyes que incluyen racionalmente las leyes anteriores, descubran que ese proceso nunca acaba. En vez de hallar una ley universal absoluta que sea la base fundamental de la existencia, pueden encontrarse con una repetición interminable de leyes, 0, peor aún, con la confusión y la falta más absoluta de normas... un universo fuera de la ley. No hay, pues, garantía alguna de que nos aguarde una ley física sencilla. No obstante esta posibilidad, la idea de una ley simple que describa toda la existencia nos atrae como el Santo Grial. Y, como la búsqueda del Santo Grial, la investigación puede resultar más interesante que el objeto buscado. Hasta hace poco, se pensaba que los físicos deducían las leyes de la naturaleza directamente de la experimentación y de la observación. Las leyes básicas estaban íntimamente ligadas a la experimentación. Hoy, en los programas de investigación, se ha abandonado esa vía y los físicos no deducen las leyes directamente de la experimentación. Procuran, más bien, intuir las leyes básicas partiendo del razonamiento matemático para posteriormente –si se puede, o si alguna vez se pudiese– comprobarlas a través de la observación o de la experimentación. Pero dentro de las características de un programa de investigación en física, paradojalmente los razonamientos matemáticos van naciendo de un orden que emerge del caos. Supongamos que tenemos dos secuencias de dígitos. La primera tiene la forma …001001001001001001…, mientras la segunda tiene la forma ...010010110101111010010... A continuación, nos corresponde preguntarnos si estas secuencias son aleatorias u ordenadas. Sin duda que la primera corresponde a una secuencia ordenada, y decimos esto porque es posible «visualizar» un patrón en ella; esto es, podemos reemplazar la primera secuencia por una regla que nos permite recordarla o comunicarla a otros sin catalogar simplemente su contenido. Así, llamaremos a una secuencia no aleatoria si podemos abreviarla con una fórmula o regla más breve que ella. Si es así, decimos que es comprimible. Distinto se da el caso para la segunda frecuencia, en ella no existe posibilidad de abreviación o fórmula que capture la información que contiene, entonces decimos que es incomprimible. Si necesitamos hacer descripciones sobre la secuencia incomprimible tendremos que catalogarla en su totalidad. No es posible condensar su información de una manera más corta que la secuencia misma. Esta simple idea nos permite extraer algunas lecciones sobre la búsqueda científica de una teoría unificada. Podemos definir la ciencia como una forma válida de ver y explicarse el mundo, el hombre, el universo. También lo son el arte, la religión, la filosofía, los mitos. Pero la ciencia observa el mundo de todas las maneras posibles y reúne hechos relacionados con él. Busca patrones en esos hechos, compresiones de la información que se puede tabular, y a estos patrones se les llama las leyes de la Naturaleza. La búsqueda de una Teoría Unificada es la búsqueda de una última compresión del mundo. La demostración de Chaitin del teorema de la incompletitud de Gödel, usando los conceptos de complejidad y compresión, revela que el teorema de Gödel es equivalente al hecho que no se puede probar que una secuencia no se pueda comprimir. Nunca probaremos que una compresión es la última; siempre existirá una unificación más profunda y simple, esperando ser encontrada. LAS LEYES DE LA NATURALEZA

Nuestro análisis de la compresibilidad de las secuencias nos deja una enseñanza: que un patrón, o simetría, es equivalente a leyes o reglas de cambio. La leyes clásicas de cambio, como las leyes de Newton sobre la conservación de los momentos lineales, son equivalentes a la invarianza de una cantidad o patrón. Estas equivalencias sólo se conocen mucho después de la formulaciones de las leyes del movimiento que gobiernan los cambios permitidos. Esto concuerda con la tradición platónica, que enfatiza los aspectos atemporales del mundo, que no cambian, como clave para sus estructuras fundamentales. Estos atributos eternos, o «formas» como las llamó Platón, parecen haber surgido con el paso del tiempo como las leyes de la naturaleza o las magnitudes invariantes y de conservación (como energía y momentum) de la física moderna. Tal como ya lo vimos en el capítulo VI, desde 1973 este enfoque sobre la simetría ha sido el centro en el estudio de la física de partículas elementales y las leyes que gobiernan las interacciones fundamentales de la naturaleza. Como ya lo mencionamos, no hace mucho, se pensaba que los físicos deducían las leyes de la naturaleza directamente de los experimentos y de la observación. Las leyes básicas estaban íntimamente ligadas a la experimentación. Hoy se ha abandonado esa vía y los físicos no deducen las leyes directamente de la experimentación. Procuran, más bien, intuir las leyes básicas partiendo del razonamiento matemático. Nadie ha expuesto tan bien este alejamiento del empirismo estricto como Einstein en su Conferencia Herbert Spencer, en 1936. Dijo lo siguiente: Estoy convencido de que la interpretación matemática pura permite descubrir los conceptos y las leyes que los relacionan, y eso nos da la clave para comprender la Naturaleza... En cierto sentido, pues, yo creo que el pensamiento puro puede captar la realidad, como soñaban los antiguos. Einstein estaba profundamente afectado por su propio descubrimiento de la teoría general de la relatividad. Había construido una interpretación puramente matemática, lo que llamaríamos un modelo, una «invención libre» de su pensamiento, para describir el mundo físico. A partir de este modelo, hizo racionalmente varias deducciones cuantitativas que deberían poder observarse: un pequeño cambio en la órbita del planeta Mercurio, la curvatura de la luz alrededor del limbo del Sol, el hecho de que los relojes anduviesen más despacio en un campo gravitatorio. Si las observaciones no confirmaban el modelo, el modelo no era válido; así que se trataba de un modelo verificable. Pero el modelo en sí era una creación libre y no una inducción experimental. Einstein dijo también: Si la base de la física teórica no puede deducirse de la experiencia, sino que ha de ser una invención libre, ¿qué motivos tenemos para creer que podremos hallar el camino adecuado? Más aún, ¿existe en realidad este enfoque correcto fuera de nuestra imaginación? Yo respondo a esto con absoluta seguridad que, según mi opinión, el camino correcto existe. Y que tenemos capacidad para encontrarlo. Encontrar el camino correcto es la ambición de quienes concentran sus esfuerzos en programas de investigación para desarrollar hoy modelos teóricos de campo. Los caminos que se han elegidos parecen estar conduciéndoles al principio mismo del universo; el tiempo dirá si son caminos falsos o equivocados. Los físicos teóricos, en sus recientes tentativas de entender el universo, se han jugado «el todo por el todo». Están ampliando los modelos teóricos bastante más allá de las energías que se manejan hoy en los laboratorios, hasta llegar a las elevadísimas energías de antes del primer nanosegundo de edad del universo. Casi todos estos programas tienen un denominador común: desarrollar modelos sostenidos en invenciones libres de su entendimiento. Son manejados por científicos académicos relativamente jóvenes que se caracterizan por su visión sintetizadora, su energía libre y desbordante y su notable capacidad para sublimar impulsos más primitivos en la ambición intelectual de saber. Los físicos, en su partida de cartas conceptual con la naturaleza, han ganado ya unas cuantas manos, y ahora quieren ganar la partida: llegar hasta el principio de los tiempos. No es fácil saber si están tirándose a una piscina sin agua o si de verdad tienen todas las cartas necesarias. Quizá tengamos que revisar profundamente nuestra concepción de la realidad material para poder explicar el origen del universo. Pero es evidente ya que las teorías relativitas del campo cuántico y sus intrincadas simetrías están aportando muchas sorpresas conceptuales, una fecundidad imprevista de capacidad explicativa que emociona a los físicos. El tema de su trabajo ha sido la unificación de los campos cuánticos, y de sus correspondientes fuerzas, mediante la aplicación de los principios de simetría. En los actuales programas de investigación en física, en general, se considera a la simetría como la principal guía en la estructura del mundo de las partículas elementales, y las leyes del cambio se derivan desde los requerimientos de simetrías específicas, a menudo de un carácter altamente abstracto, que se conservan. Estas teorías son llamadas «teorías de medición». Las más exitosas teorías de las cuatro fuerzas conocidas de la naturaleza –electromagnética, débil, fuerte y gravitacional– son todas teorías de medición. Estas teorías requieren de la existencia de fuerzas que ellas describen como necesarias para preservar las invariancias sobre las que están basadas. También pueden disponer el carácter de las partículas elementales de la materia que ellas gobiernan. En estos aspectos difieren de las clásicas leyes de Newton que, al regir el movimiento de todas las partículas, nada pueden decir sobre las propiedades de esas partículas. La razón de esta dimensión adicional es que el mundo de las partículas elementales regidas por estas teorías de medición, en contraste con el mundo macroscópico, está poblado por una colección de partículas, prácticamente, idénticas; por ello, es común escuchar en el ambiente académico que cuando se ha visto un electrón se han visto todas las partículas. Para los programas de investigación en física que buscan encontrar un modelo que entregue una ley única que unifique las cuatro fuerzas de la naturaleza, el uso de la simetría se ha constituido en una poderosísima herramienta, ya que permite que todo el sistema de leyes naturales sea derivado de la necesidad que un cierto patrón abstracto sea invariante en el universo. Con posterioridad, las predicciones de este sistema de leyes pueden ser comparadas con el curso real de la naturaleza. Es la ruta opuesta a la que habríamos seguido hace un siglo. Entonces, el estudio sistemático de hechos nos habría llevado a sistemas de ecuaciones matemáticas que nos darían las leyes del cambio; después, podría reconocerse que los hechos son equivalentes a alguna teoría global o local de invarianza. Puede parecer inútil y hasta fútil, intentar reducir la diversidad de teorías para cada una de las interacciones de la naturaleza a una teoría última, simple y única. Pero para quienes son físicos la apreciación aparece diferente, y hasta necesaria. Hasta ahora, los avances han sido importantes en la resolución de este problema, sobre la base de simetrías mayores, dentro de las cuales las simetrías más pequeñas respetadas por las fuerzas individuales de la naturaleza puedan acomodarse de manera entrelazada, lo cual pone nuevas restricciones sobre sus formas permitidas. Lo anterior, se podría considerar que se trata de una estrategia con resultados exitosos, probada experimentalmente, para la unificación de las interacciones electromagnética y débil. Y ha entregado una cantidad de proposiciones puramente teóricas para una próxima unificación con la fuerte «Grandes Teorías Unificadas: GUT's», y finalmente una cuádruple unificación con la fuerza gravitacional para producir la llamada «Teoría Unificada» (Theory of Everything: TOE). El patrón de unificación ocurrido durante los últimos trescientos años se puede ver en la Fig. 12.01.01 La candidata favorita para una TOE es la teoría de las supercuerdas. Es suficiente decir que el enorme interés que han despertado esta teoría en los últimos años puede atribuirse al hecho que revelan que el requerimiento de autoconsistencia lógica –sospechoso de ser una restricción bastante débil sobre la TOE– resultó ser enormemente restrictivo. Al principio se pensó que reducía las alternativas a sólo dos posibles simetrías que subyacieran a la TOE. Subsecuentemente se ha encontrado que la situación es aún más complicada que lo imaginado al principio, y que la teoría de las supercuerdas requerían de una nueva clase de matemáticas para poder ser elucidada.


Figura 12.01.01.- El desarrollo de las diferentes teorías de la física muestra cómo se han unificado y refinado las teorías de las diferentes fuerzas de la naturaleza. Las líneas de puntos representan unificaciones que han sido hechas sólo en forma teórica y aún deben ser confirmadas por evidencia experimental.

Los físicos están muy lejos de alcanzar ese objetivo final de la teorías unificadas, tal como se las concibe, son simplemente intentos para englobar todas las leyes que rigen las fuerzas fundamentales de la naturaleza dentro de una ley singular de la naturaleza derivada de la preservación de una sola simetría que lo abarca todo. Pero los programas para lograr el éxito de unificación de campos siguen adelante, firmes. Podríamos agregar que ahora se conocen cuatro fuerzas fundamentales, de las cuales la más débil es la gravitación. Podrían existir fuerzas de la naturaleza aun más débiles y que son demasiado tenues para que nosotros seamos capaces de detectarlas (quizás nunca lo hagamos), pero cuya existencia es necesaria para adecuar la lógica indispensable de esa única teoría unificada.

Teorías del Campo Unificado "Es un sentimiento maravilloso el descubrir las características unificadoras de un complejo de fenómenos diversos que parecen totalmente desconectados en la expreciencia directa de los sentidos".

                                   (ALBERT EINSTEIN, 1901)



El modelo estándar del Big Bang ofrecía un cuadro nítido de la ardiente época en la que protones y neutrones, aglutinados en el huevo cósmico, se fusionaron para formar núcleos atómicos. Proporcionaba sucintas explicaciones para fenómenos tan diversos como la radiación cósmica de fondo y el equilibrio observado de los elementos en el universo. Pero nada describía sobre el origen de la hirviente sopa de partículas, y caliginoso sobre la metamorfosis de las nubes de ardiente gas a las formaciones de materia que hoy divisamos en la fría oscuridad del espacio. Aunque la hipótesis del Big Bang ganó aceptación general en la década de 1960, los cosmólogos no tardaron en empezar a intentar llenar esos vacíos en su comprensión de los hechos. El esfuerzo se vio fuertemente influenciado por los descubrimientos sobre los procesos físicos del universo a escala tanto grande como pequeña. Los astrónomos que miraban a miles de millones de años luz en el espacio detectaban sistemas de galaxias cuyas grandes magnitudes y ordenadas estructuras suplicaban una teoría evolutiva. Y de la investigación de las partículas de alta energía, donde auténticas hordas de nuevas partículas no dejaban de aparecer en los detectores de los enormes aceleradores, empezaron a emerger apuntes sobre la dinámica de la bola de fuego. Estos aceleradores no podían acercarse a los niveles de energía del Big Bang, pero los físicos se sentían cada vez más confiados en su habilidad de conjeturar cómo debían de haberse comportado las partículas en las prodigiosas temperaturas y densidades de la explosión primordial. Un grial tanto de la cosmología como de la física de partículas buscado desde hacía mucho tiempo era la noción de lo que los físicos llamaban una teoría del campo unificado, una hipótesis que usara un simple conjunto de ecuaciones para describir los campos de todas las cuatro fuerzas: gravedad, electromagnetismo, y las fuerzas fuerte y débil del núcleo atómico. Proporcionaría un recio esqueleto para el cuerpo de la teoría cosmológica explicando, en términos similares a cualquier escala, desde la subatómica a la intergaláctica, todas las interacciones de fuerzas y materia.


Esta iniciativa de buscar teorías del campo unificado comienza con los trabajos de Einstein en los años veinte y treinta de nuestro siglo. Partiendo de su teoría de la relatividad general, para describir la gravedad, y de la teoría de Maxwell para el electromagnetismo, Einstein buscó una teoría unificada más amplia, que integrase ambas fuerzas. Cuando Einstein hacía esto, aún se sabía muy poco de las fuerzas débil y fuerte, fuerzas consideradas hoy tan fundamentales como la gravedad y el electromagnetismo. Einstein creía que la teoría del campo unificado surgiría de la fusión de la mecánica cuántica con la relatividad general. Albert Einstein pasó las últimas tres décadas de su vida en una vana búsqueda de una teoría unificada de la gravedad y el electromagnetismo, las únicas dos fuerzas bien comprendidas por aquel entonces. Pero el primer progreso real hacia la unificación lo efectuaron los científicos que estudiaban las fuerzas que dominan los átomos. Un grupo de físicos, entre los que figuran Julian Schwinger, Murray Gell-Mann, Sheldon Glashow, Abdus Salam, John Ward y Steven Weinberg, comenzaron a afirmar en los años cincuenta y sesenta que era más fácil unificar las interacciones electromagnéticas y las débiles, que las interacciones electromagnéticas y las gravitatorias. Esto se debía a que las interacciones electromagnéticas y las débiles compartían una propiedad importante: se suponían transmitidas ambas por gluones de espín uno, mientras que la gravedad dependía de un gluón de espín dos. Tales supuestos dieron su fruto cuando, en 1967-1968, se inventó el modelo electro-débil y el programa de unificación de campos tomó un nuevo rumbo trascendental. El camino para la unificación pasaba, al parecer, por la unión de campos bajo la égida de una simetría espontáneamente rota. La idea de una simetría rota explicaba el que fuerzas fundamentalmente unificadas y simétricas se manifestaran en la naturaleza de formas tan distintas. Si se consideraba el modelo electrodébil junto a (no unificado con) la cromodinámica cuántica, la teoría de la fuerza fuerte, se podía construir lo que pasó a denominarse el «modelo estándar» de gluones, leptones y quarks interactuantes. Durante los años sesenta, cuando se acumularon datos experimentales favorables al modelo electro-débil unificado, algunos físicos, dando por sentado el éxito experimental del modelo, intentaron ampliar matemáticamente el esquema de unificación para que incluyera la fuerza fuerte que ligaba los quarks por medio de los gluones coloreados. Querían lograr la síntesis de las fuerzas débil, electromagnética y fuerte. Como los gluones coloreados son, igual que los débiles y electromagnéticos, cuantos de campos de medida de Yang-Mills, es lógico suponer que todos los gluones del modelo estándar no son más que componentes de un sólo campo unificado. Esta es la idea básica moderna de la unificación de campos. Las teorías de campo que unifican las tres fuerzas (la electromagnética, la débil y la fuerte) se denominan «grandes teorías unificadas» (GTU) o simplemente GUT's (teoría de la gran unificación –en inglés: Grand Unification Theory ) . Por condición previa, las GUT's no se proponen una unificación de campo total, ya que no incluye la gravedad, que es, con mucho, la más débil de las cuatro fuerzas conocidas. Los físicos teóricos que estudian hoy estas teorías creen que de ellas pueden deducirse cosas muy importantes sobre la naturaleza del universo muy primitivo, de antes incluso del primer nanosegundo. De las GUT's se deducen también nuevas propiedades de las partículas cuánticas como, por ejemplo, la desintegración del protón (en el modelo estándar, los protones son estables), así como la existencia de toda una nueva clase de partículas cuánticas: los monopolos magnéticos. Pero por muy interesantes que sean las GUT's, a diferencia de su progenitor, el modelo electro-débil, carecen aún de una sólida base experimental. Las GUT's son ejemplos de ideas en una historia sin fin… Son nuevas ideas que no contradicen los principios generales de la física ni los experimentos realizados, pero que carecen aún de pruebas directas que las apoyen. De todas las ideas que iremos exponiendo en las diferentes secciones de este capítulo, la de las GUT's es sin duda una de las que concita una gran atención. Los físicos teóricos han elaborado una serie de ingeniosas teorías de este tipo, modelos matemáticos específicos, para calcular las propiedades de la desintegración del protón, y sus colegas experimentales se esfuerzan por hallar pruebas de este proceso de desintegración. Hasta ahora, no lo han logrado. Si estas teorías resultan erróneas (como bien podría ser), será una gran decepción que llevará a los físicos en una dirección nueva.

En el reino subatómico, gobernado por las reglas de la mecánica cuántica, existe una relación muy estrecha entre el concepto de materia particulada y el de fuerza. A las partículas se le clasifican según el tipo de fuerza al que son sensibles, mientras que los campos de fuerza son transmitidos por partículas. Pero al margen de esa reilación, existe otra bastante peculiar; descrita por primera vez en la década de 1920 por Heisenberg, Schrödinger, Dirac y sus colegas. A esta minúscula escala, las partículas de materia como los electrones pueden ser descritos también como ondas; los fenómenos ondulatorios como los protones pueden ser vistos también como partículas. Los electrones cambian su nivel de energía emitiendo o absorbiendo fotones, que se considera que son los portadores del electromagnetismo. Por otra parte, al margen de las relaciones que hemos descrito, existe otra idea íntimamente ligada a las partículas y fuerza que es la simetría. Aunque gozó de bastante éxito, por largo tiempo la teoría original de la mecánica cuántica permaneció incompleta. Podía describir en términos generales el resultado de las interacciones de las partículas, pero no podía hacer predicciones exactas sobre las interacciones entre partículas y radiación. Cuando era empujado más allá de una aproximación general, el marco matemático de la teoría daba siempre respuestas infinitas o sin significado. En 1935, los físicos habían iniciado una serie de infructuosos esfuerzos por diseñar una teoría enteramente nueva que eludiera estos infinitos. Pero los resultados que se consiguieron de esos esfuerzos no fueron justamente los de desarrollar una nueva teoría. Resultó que la respuesta estaba en un refinamiento matemático de la primaria. A finales de la década de 1940, los esfuerzos de tres físicos, Richard Feynman, Julian Schwinger y Sin-Itiro Tomonaga, trabajando separadamente, dieron como consecuencia una descripción matemática mejorada del comportamiento de las partículas; la descripción recibió el nombre de electrodinámica cuántica, reducido inevitablemente a QED (quantum electrodynamics). Este nuevo modelo usaba un procedimiento llamado renormalización para eliminar los infinitos de los cálculos. La renormalización, una especie de juego de manos matemático, es un delicado proceso que redefine la masa y la carga de las partículas al tiempo que mantiene la integridad general de las ecuaciones. La técnica funcionaba perfectamente, y pronto los físicos estaban usando la electrodinámica cuántica para predecir, con increíble exactitud, las interacciones electromagnéticas de productos de los aceleradores de partículas tales como electrones, positrones y fotones. A su vez, la QED sugería nuevos enfoques a la comprensión de todas las fuerzas. Si uno abordara a físicos de partículas en una conversación sobre la naturaleza del mundo, le entregarían rápidamente una historia sobre cuán simple y simétrico es el mundo si sólo se miraran las cosas de manera correcta. Pero al volver a contemplar el mundo real uno sabe que está lejos de ser simple. Para el psicólogo, el economista, el botánico o el zoólogo, el mundo está lejos de ser simple. Es una cantidad de hechos complejos cuya naturaleza le debe más a su persistencia y estabilidad en el tiempo que a alguna misteriosa atracción por simetría o simplicidad. ¿Así, quién tiene razón? ¿Es el mundo realmente simple, como dijo el físico; o es extremadamente complicado como todos parecen pensar?. La respuesta a esta pregunta revela una de las más profundas sutilezas de la estructura del universo. Cuando observamos a nuestro alrededor no notamos las leyes de la naturaleza; más bien, vemos los resultados de esas leyes. Hay un mundo de diferencia. Los resultados son mucho más complicados que las leyes fundamentales, porque no respetan la simetría desplegada por las leyes. Así, es posible un mundo que exhibe complicadas estructuras asimétricas (como nosotros mismos) y es regido por leyes simétricas muy simples. Veamos el siguiente ejemplo simple. Supongamos que balanceo una pelota en el ápice de un cono. Si soltara la pelota, su siguiente movimiento estaría determinado por la ley de gravitación. Pero la gravitación no tiene direcciones preferenciales en el universo; a este respecto es completamente democrática. Pero cuando suelto la pelota, siempre caerá en una dirección especial; ya sea porque se la ha empujado en esa dirección, o como resultado de fluctuaciones cuánticas que no permiten que persista un estado de equilibrio inestable. Así, el resultado de la caída de la pelota rompe la simetría direccional de la ley de gravedad. Tomemos otro ejemplo. En este momento, Ud. y yo estamos situados en lugares especiales del universo, a pesar del hecho que las leyes de la naturaleza no muestren preferencia por un lugar en especial. Somos ambos resultado (muy complicado) de las leyes de la naturaleza que rompen sus simetrías fundamentales respecto de posiciones en el espacio. Esto nos enseña por qué la ciencia es a menudo tan difícil. Al observar el mundo vemos sólo las simetrías rotas que se manifiestan por medio del resultado de las leyes de la naturaleza, y desde ahí debemos trabajar hacia atrás para desenmascarar las simetrías escondidas que caracterizan a las leyes detrás de su apariencia. Ahora podemos entender las respuestas dadas a nuestra primera pregunta. El físico de partículas trabaja muy cerca de las leyes de la naturaleza y esa es la razón por la que está impresionado por su simplicidad y simetría. Por esta razón confía en la simplicidad de la naturaleza. Pero el biólogo o el metereólogo se ocupan del estudio de los resultados complejos de estas leyes, antes que de las propias leyes. Por esto se impresionan más con las complejidades de la naturaleza que con la simetría. Los físicos se valen constantemente de simetrías para aplicar a diversas situaciones una cantidad reducida de leyes físicas fundamentales. Galileo y Newton, por ejemplo, descubrieron que las leyes de la caída libre son simétricas con respecto a los desplazamientos en la posición, la orientación y el tiempo. 0 sea, si se eliminan factores externos, la descripción del movimiento es independiente de dónde se realicen los experimentos, desde qué ángulo se les observe o cuándo ocurran. Las simetrías se pueden clasificar como globales y locales. Para ilustrar el concepto de simetría global, considérese un experimento en el que se mida el campo eléctrico generado por un conjunto de cargas, de ambos signos, colocadas arbitrariamente en un laboratorio. En esas condiciones, la teoría electromagnética establece que el campo eléctrico entre dos puntos se da simplemente por la diferencia de potencia entre ellos. Esto implica una simetría, ya que el campo permanece invariante ante la suma o resta, global, de un potencial constante arbitrario. Por depender de medidas relativas, el campo eléctrico es independiente de la convención o escala que se haya escogido para medir la carga eléctrica. Esto constituye una invarianza de norma global. El término norma se refiere a la elección de una escala o patrón de longitud, si bien la palabra también es comúnmente sustituida por calibre, aforo, o el término inglés gauge. Cada simetría tiene como consecuencia una ley de conservación, entendida ésta como una cualidad que no cambia en el tiempo. Por ejemplo, que los resultados de un experimento sean independientes del lugar en el que se realicen es una invarianza translacional en el espacio que implica la conservación del ímpetu o momento lineal. Lo inverso también es cierto: cuando una cantidad se conserva, esto indica la existencia de una simetría. La conservación de la energía implica una invarianza translacional en el tiempo, es decir, que no importa a partir de cuándo empezamos a medir el tiempo. La invarianza respecto de la orientación se refleja en la conservación del momento angular.

Para que podamos entender mejor lo que hemos descrito en los párrafos precedentes, analicemos la figura que hemos insertado a la izquierda. La primera columna representa el desarrollo de la perspectiva platónica del mundo, con su énfasis en los elementos que no cambian –leyes, cantidades que se conservan, simetrías–, mientras que la columna de la derecha, con su énfasis sobre el tiempo, el cambio y la concatenación de sucesos complejos, es la realización del enfoque aristotélico para la comprensión del mundo. Hasta hace poco, los físicos se preocupaban casi exclusivamente del estudio de las leyes antes que de sus complejos resultados. No es sorprendente: el estudio de los resultados es un problema mucho más difícil que requiere de la existencia de poderosos computadores interactivos con buenos sistemas gráficos para su implementación completa. No es coincidencia que el estudio de la complejidad y el caos en ese mundo de resultados va de la mano con el creciente poder y disponibilidad de computadores personales conectados en línea con grandes servidores. Hacia principios del siglo XIX se sabía de la existencia de tres tipos de fuerzas en la naturaleza: la gravitacional entre las masas, la eléctrica que actúa entre las cargas y la magnética entre los imanes. Los trabajos de Faraday y Ampère demostraron la existencia de una simetría entre las fuerzas eléctrica y magnética al observar que cargas en movimiento generan campos magnéticos y que campos magnéticos variables generan corrientes eléctricas. La interdependencia de estas fuerzas indicó que se trataba de distintas manifestaciones de una sola fuerza: la electromagnética. La formulación de la teoría de los campos correspondientes a las dos fuerzas mencionadas fue propuesta por Jarnes Clerk Maxwell (la electromagnética) en 1868 y por Albert Einstein (la gravitacional) a principios del siglo XX. Existen ciertas similitudes interesantes entre ellas, como el que ambas poseen alcance infinito, y que su dependencia con la distancia es la misma. Este parecido motivó a varios investigadores, entre ellos al propio Einstein y a Hermann Weyl, a tratar de unificarlas. Objetivo que, por cierto, aún no se ha logrado. Hacia 1920 Einstein había obtenido una formulación matemática de la teoría de la relatividad general que describía la fuerza de la gravedad en términos de la estructura del espacio-tiempo. Ese año, Weyl descubrió que tanto la relatividad general como el electromagnetismo pertenecen a una familia denominada teorías de norma con simetría local. En el camino que han recorrido los físicos tras la consecución de unificar campos de fuerza, el primer resultado exitoso fue la unificación matemática que hizo Maxwell de los campos eléctrico y magnético en un campo electromagnético único. Antes de los trabajos de Maxwell, el campo eléctrico y el magnético se consideraban fenómenos relacionados pero distintos. Después de Maxwell, los físicos comprendieron que esta interrelación era más profunda de lo que se había creído: el campo eléctrico y el campo magnético se transforman realmente el uno en el otro al cambiar en el tiempo. Si los campos eléctrico y magnético oscilaran en el tiempo, podrían propagarse en el espacio como una onda electromagnética, una onda identificable con la luz. La unificación de los campos eléctrico y magnético que logró Maxwell condujo directamente al notable descubrimiento de que la luz es una onda electromagnética, lo cual daba una respuesta nueva a la antigua pregunta: «¿Qué es la luz?» Una teoría general del campo eléctrico debe tomar en cuenta, no sólo cargas estáticas, sino experimentos con cargas en movimiento. Si sólo actuase la fuerza eléctrica, el movimiento arbitrario de las cargas en el laboratorio rompería la simetría del campo electrostático. Sin embargo, al moverse, las cargas generan campos magnéticos que permiten restablecer la simetría en forma local. Es decir, cualquier cambio en el potencial eléctrico puede combinarse, localmente, con un cambio en el potencial magnético de manera que los campos eléctricos y magnéticos sean invariantes. Los campos electromagnéticos son, de por sí, de gran alcance y, debido a ello, y al hecho de que la luz sea una onda electromagnética y al importante papel que desempeña el campo electromagnético en la vinculación de los electrones a los núcleos, la interacción electromagnética se estudia fácilmente en el laboratorio. Fue la primera que consiguieron dominar los teóricos y es hoy la interacción mejor conocida. La unificación de campos era sólo un aspecto del descubrimiento de Maxwell. Otro aspecto era la «reducción de parámetros». Los físicos experimentales habían determinado en estudios anteriores de la electricidad y el magnetismo dos constantes físicas: la «susceptibilidad eléctrica y magnética» del espacio vacío. Estas dos constantes estaban presentes en las ecuaciones de onda electromagnética y, por ello, Maxwell podía calcular la velocidad de la onda (la velocidad de la luz). Así pues, tres parámetros experimentales distintos considerados hasta entonces independientes (la susceptibilidad eléctrica, la magnética y la velocidad de la luz) quedaban relacionados de un modo fijo y determinado. En vez de tres parámetros independientes, ya sólo había dos. Esta reducción paramétrica es otro objetivo del programa de unificación de campos. El objetivo es, en último término, hallar una teoría general sin parámetros arbitrarios, con la que pueda calcularse cualquier constante física. Los físicos están muy lejos de alcanzar este objetivo final, pero el programa de unificación de campos sigue adelante, firme. Por otra parte, la teoría del campo asocia a cada fuerza algún tipo de partícula, o partículas intermediarias, es decir, responsables de acarrear la información del campo. A principios del siglo XX, Planck y Einstein propusieron al fotón como mensajero del campo electromagnético. En la década de 1930, se puso de manifiesto la existencia de dos nuevas fuerzas fundamentales, que sólo actúan a distancias nucleares: la fuerte y la débil. Por ese entonces, Yukawa sugirió que el emisario correspondiente al campo fuerte sería el mesón. Ahora creemos que no es el mesón, sino el gluón el responsable de esta tarea. Otro campo sin partícula identificada experimentalmente es el gravitacional, si bien los esfuerzos por detectar gravitones no han sido pocos.