Causalidad (física)

De Wikipedia, la enciclopedia libre

En física, el término causalidad describe la relación entre causas y efectos, siendo fundamental en todas las ciencias naturales. En términos generales, la causalidad puede ser estudiada desde varias perspectivas: la filosófica, la de la computación y la estadística.

Introducción[editar]

En física clásica se asumía que todos los eventos están causados por otros anteriores y que dicha causalidad es expresable en términos de leyes de la naturaleza. Dicha pretensión llegó a su punto más alto en la afirmación de Pierre Simon Laplace. Laplace afirmó que si se conoce el estado actual del mundo con total precisión, uno puede predecir cualquier evento en el futuro. Esta perspectiva se conoce como determinismo o más precisamente determinismo causal.

Aunque el determinismo de Laplace parece correcto respecto a las ecuaciones aproximadas de la física clásica, la teoría del caos ha añadido pequeñas complicaciones. Muchos sistemas presentan una fuerte sensibilidad a las condiciones iniciales, lo que significa que condiciones iniciales muy similares en ciertos sistemas pueden conducir a comportamientos a largo plazo muy diferentes. Eso sucede por ejemplo en el tiempo atmosférico. Hacia 1987 era habitual usar superordenadores en la predicción del tiempo, por ejemplo el Cray X-MP del Centro Europeo para el Pronóstico del Tiempo a Medio Plazo, que operaba con una capacidad máxima de 800 megaflops, podía calcular en apenas media hora un pronóstico aceptable del tiempo para el día siguiente en todo el hemisferio. Y aunque cada día se realizaban pronósticos de los siguientes diez días, los resultados del pronóstico a partir del cuarto o quinto día diferían sensiblemente de lo previsto por el ordenador.[1]

Sin embargo, por encima de la impredictibilidad práctica causada por el comportamiento estocástico o caótico de los sistemas clásicos, está el hecho de que la mecánica cuántica presenta junto con una evolución determinista recogida en la ecuación de Schrödinger, una evolución no-determinista recogida en el postulado del colapso de la función de onda.

Mecánica relativista[editar]

De acuerdo con los postulados comunes de la física newtoniana, la causa precede al efecto en el tiempo. Sin embargo, en la física moderna, se ha necesitado aclarar el concepto más simple de causalidad. Por ejemplo, en la teoría de la relatividad especial, el concepto de causalidad se mantiene, aunque el tiempo sea relativo y el concepto de simultaneidad de la mecánica clásica no sea aplicable.

A pesar de los problemas causados por la ausencia de un tiempo absoluto independiente del observador, el significado de "precedendecia causal" sigue siendo absoluto y no depende del observador (aunque no pasa igual con el concepto de simultaneidad de sucesos no relacionados causalmente, que ahora sí pasan a depender del observador). Consecuentemente, el principio relativista de causalidad dice que la causa precede a su efecto para observadores inerciales.

Esto implica que, en términos de la teoría de la relatividad especial, una condición necesaria para que A sea causa de B, es que B sea un evento que pertenece al cono de luz de A (en términos de distancias espacio-temporales se dice que A y B están separados por intervalo temporaloide). A pesar de algunas obras de ciencia ficción, en los supuestos bajo los cuales la teoría de la relatividad especial es adecuada para describir el mundo, resulta imposible, no solamente influir en el pasado, sino también en objetos distantes mediante señales que se muevan más rápidas que la velocidad de la luz.

En la teoría general de la relatividad, el concepto de causalidad se generaliza de la manera más directa posible: el efecto debe pertenecer al cono de luz futuro de su causa, aun en espacio-tiempos curvos; aunque pueden aparecer ciertas complicaciones, como cuando uno trata soluciones exactas de las ecuaciones de Einstein, como el Universo de Gödel, donde existen curvas temporales cerradas, y un observador puede verse a sí mismo en el pasado, y otra serie de peculiaridades que, no obstante, no incurren en ninguna paradoja.[2]

Mecánica cuántica[editar]

Nuevas sutilezas se toman en cuenta cuando se investiga la causalidad en mecánica cuántica no relativista y teoría cuántica de campos (mecánica cuántica relativista). En la teoría cuántica de campos, la causalidad está estrechamente relacionada con el principio de localidad. El análisis de ese principio es delicado, y muchas veces ese análisis pasa por el uso del teorema de Bell. De todas maneras, el resultado de dicho análisis parece depender, en parte, de desde qué interpretación de la mecánica cuántica se interpreten los resultados.

Sin embargo, se sospecha que, aun con todas estas sutilezas, el principio de causalidad sigue siendo un concepto válido de toda teoría física realista. Así, parece que la noción de que los eventos pueden ser ordenados en causas y efectos es necesaria para prevenir ciertas paradojas del mundo que conocemos.

Causalidad y mecánica cuántica[editar]

El principio de causalidad en su forma original postula que todo efecto -todo evento- debe tener siempre una causa (que, en idénticas circunstancias, una causa tenga siempre un mismo efecto se conoce como "principio de uniformidad"). Se usa para la búsqueda de leyes definidas, que asignan a cada causa su correspondiente efecto.

Este principio refleja un comportamiento mecánico de la naturaleza, que hasta el siglo XX se había aceptado e interpretado en un sentido determinista. No obstante, a principios de este siglo Heisenberg y Born introdujeron el principio de incertidumbre y las probabilidades como ingrediente esencial de la mecánica cuántica. Entre los principios o postulados de la mecánica cuántica está el colapso de la función de onda.


Teoría atómica[editar]

Heisenberg, Schrödinger y otros pioneros de la mecánica cuántica introdujeron un modelo de átomo que renunciaba a la visión clásica de un compuesto de partículas y ondas. En este y otros modelos cuánticos exitosos se apreció que cualquier intento de establecer analogías entre la estructura atómica y nuestra intuición sobre objetos macroscópicos estaba condenado al fracaso . La formulación matemática de la teoría de Heisenberg se llamó inicialmente mecánica matricial, porque requería del uso de las matrices del álgebra lineal clásica. Esta formulación resultó complementaria de la mecánica ondulatoria, del físico austriaco Erwin Schrödinger.

Usando esta mecánica, los niveles de energía u órbitas de electrones se describen en términos probabilísticos: en general, de una misma causa no se deriva siempre un mismo efecto, sino que existe una variedad de posibles efectos. Solo se puede predecir (aunque, en principio, con una fiabilidad determinista total) la probabilidad de que, cuando la causa se produzca, ocurra cada uno de los efectos. Este comportamiento resulta extraño para nuestra experiencia ordinaria. Su explicación la podemos resumir en los siguientes puntos, que deben aceptarse como postulados avalados por miles de observaciones experimentales:

  • Existen propiedades de la materia (observables) que no se pueden medir simultáneamente (observables que no conmutan). Por ejemplo, la posición y la velocidad de una misma partícula sería un par de propiedades de este tipo. Para ilustrar esa situación con un análogo clásico burdo, piénsese que, si un microscopio es lo suficientemente sensible como para hacer visible un electrón, deberá enviar una cantidad mínima de luz u otra radiación apropiada sobre él, que lo haga visible. Pero el electrón es tan pequeño que este mínimo de radiación (digamos, un fotón) es suficiente para hacerle cambiar de posición apenas lo tocara, de modo que en el preciso instante de medir su posición, alteraríamos esta.
  • Supongamos que hemos medido una de estas propiedades observables, de modo que conocemos con precisión su valor. Cuando un instante después midamos la segunda propiedad, obtendremos uno de los posibles valores de esta segunda propiedad, pero no podemos predecir antes cuál: solamente se puede predecir la probabilidad con la que cada uno de los valores posibles serán obtenidos.

Interpretación de Copenhague[editar]

Para algunos autores, desde el punto de vista filosófico, esto supone renunciar al principio de causalidad: podemos hallar dos sistemas físicos que han sido preparados exactamente del mismo modo, pero tales que, al medir una misma propiedad de ambos, obtenemos un resultado distinto en cada caso. No existe ninguna causa por la que hayamos obtenido los resultados diferentes: la naturaleza no es determinista. Sin embargo, sí se pueden determinar con precisión las probabilidades de obtener las posibles medidas. Y como los objetos macroscópicos están formados por números gigantescos de partículas, las predicciones probabilísticas cuánticas acaban siendo, estadísticamente hablando, totalmente precisas, lo que hace de la Mecánica Cuántica una teoría extraordinariamente exacta.

La interpretación descrita de la mecánica cuántica que se ha impuesto con el tiempo, se le llama Interpretación de Copenhague en honor de la escuela del físico danés Niels Bohr. Inicialmente, la renuncia al principio de causalidad en esta interpretación no fue aceptada por muchos físicos, incluyendo a Einstein, quien afirmó: “Dios no juega a los dados”. De hecho, el propio Einstein, en colaboración con Podolski y Rosen, ideó un experimento conocido como Argumento EPR (mal llamado Paradoja EPR), por las siglas de sus autores, presentando cinco ingredientes que son: la lógica clásica, el formulismo de la mecánica cuántica, una postura filosófica realista que podría ser aceptada incluso por un positivista moderado, la completitud del formalismo de la mecánica cuántica y la separabilidad (los ingredientes de lógica clásica y separabilidad están implícitos, pero no se los menciona, pues se los consideraba tan obvios y evidentes que no era necesario presentarlos). El argumento fue enfocado a demostrar la no completitud del formalismo de la mecánica cuántica. Bohr publicó otro trabajo con el mismo título, en el que se opuso a la conclusión del mismo, donde optó por negar la postura filosófica realista (débil) adoptada por la EPR, al proponer que la misma no es compatible con el formalismo de la mecánica cuántica, pues este requiere una interpretación basada en la complementariedad.

Paradoja EPR y desigualdades de Bell[editar]

Alain Aspect dirigió diversos experimentos que buscaban comprobar si se satisfacían las llamadas desigualdades de Bell, sobre teorías locales de variables ocultas. Las desigualdades de Bell se deducen matemáticamente de varios principios: realismo y separabilidad del argumento EPR, además de introducir las variables ocultas de la Interpretación de Bohm. Análisis posteriores mostraron que también es posible deducir la desigualdad de Bell sin suponer la existencia de variables ocultas, o sea solamente requiriendo realismo y separabilidad. De aquí quedan dos opciones: abandonar el realismo como base filosófica o aceptar que la realidad tiene la característica de ser no-separable en ciertos casos.

Ni Bohr ni Einstein consideraron esta opción, porque en el momento histórico en que ellos actuaron nadie concebía la posibilidad de que la separabilidad no fuese válida. Hoy, a la luz de la violación experimental de las desigualdades de Bell, posiblemente ambos titanes se unirían para adoptar la no-separabilidad como la alternativa adecuada entre las planteadas por el argumento de EPR. Habría sido maravilloso ver a estos dos oponentes al fin reunidos: Bohr rechazando el positivismo. Einstein reconociendo la completitud, y ambos aceptando la no-separabilidad en la realidad física.

A pesar de la importancia del argumento EPR y de que, por haber sido publicado en 1935, anterior a la edición de casi todos los libros de texto, estos, con raras excepciones, no mencionan dicho argumento. Su ausencia resulta aún más sorprendente si se tiene en cuenta que es extremadamente fácil de presentar, incluso en obras de divulgación, sin simplificaciones que lo desvirtúen. Todo esto hace pensar que el silencio en torno del argumento es intencional y que está motivado por una decisión de ignorar las dificultades de interpretación que aquejan a la mecánica cuántica. Tal intento por callar el problema no es neutro, sino que favorece a la interpretación "ortodoxa" de la teoría que se adoptó en sus principios, sustentada por la enorme autoridad, bien merecida, de Bohr, Heisenberg y otros de sus fundadores. Hoy, la mayoría de los físicos que investigan temas fundamentales de esta teoría no se adhieren a dicha interpretación y encuentran necesaria una actitud más crítica en la didáctica de la física cuántica.

La interpretación de Copenhague se enfrenta todavía a la llamada paradoja del gato de Schrödinger (remarquemos que Schrödinger, como Einstein, fue uno de los padres de la Mecánica Cuántica). Esta paradoja, que afecta a la definición de lo que es un proceso de medida (la distinción entre la materia observada y la mente del observador), no ha podido ser aún explicada de forma satisfactoria.

Existen multitud de efectos que se derivan del principio de incertidumbre. Uno de ellos, que afecta al ejemplo de incertidumbre posición-velocidad anterior, es la imposibilidad de la ausencia completa de energía cinética o, digamos, velocidad, para una partícula (ni siquiera en el cero absoluto). Si la energía cinética alcanzara el punto cero y las partículas quedaran totalmente inmóviles, sería posible confinarlas y determinar su posición con precisión arbitraria, a la vez que conoceríamos su velocidad (que sería cero). Por tanto, debe existir alguna “energía residual del punto cero”, incluso en el cero absoluto, para mantener las partículas en movimiento, y también, por así decirlo, nuestra incertidumbre. Esa energía “punto cero” se puede calcular, y resulta suficiente para evitar que el helio líquido se solidifique, incluso a temperaturas tan próximas como se quiera del cero absoluto (el cero en sí resulta inaccesible).

Las consecuencias del principio de incertidumbre se constatan en todas las partes de la microfísica, y acaban resultando asombrosas cuando se extrapolan al Universo en su conjunto. Así:

  • Desde los tiempos de Einstein, en 1930, se sabía que el principio de incertidumbre también llevaba a la imposibilidad de reducir el error en la medición de energía sin acrecentar la incertidumbre del tiempo durante el cual se toma la medida. (De hecho, al principio, Einstein creyó poder utilizar esta tesis como trampolín para refutar el principio de incertidumbre, pero también Bohr mostró que la tentativa de Einstein era errónea).
  • De esta versión de la incertidumbre se seguía que en un proceso subatómico se podía violar durante breves lapsos la ley de la conservación de la energía (siempre y cuando todo volviese al estado de conservación cuando concluyese ese lapso). En general, cuanto mayor sea la desviación de la conservación, tanto más breve será el intervalo de tiempo en que esta es tolerable. El físico japonés Hideki Yukawa aprovechó esta noción para elaborar su teoría de los piones, confirmada experimentalmente.
  • Más aún, posibilitó la elucidación de ciertos fenómenos subatómicos presuponiendo que las partículas nacían de la nada como un reto a la energía de conservación, pero se extinguían antes del tiempo asignado a su detección, por lo cual eran solamente “partículas virtuales”. Hacia fines de la década 1940-1950, tres investigadores (premios Nobel de Física en 1965) elaboraron la teoría sobre esas partículas virtuales: los físicos norteamericanos Julian Schwinger y Richard Phillips Feynman, y el físico japonés Shin'ichirō Tomonaga. Los diagramas de Feynman son usados corrientemente en la física de partículas, donde llevan a predicciones extremadamente exactas.
  • A partir de 1976 se han producido especulaciones acerca de que el Universo comenzó como una pequeña pero muy masiva partícula virtual que se expandió con extrema rapidez y que aún sigue expandiéndose. Según este punto de vista, el Universo se formó de la Nada y podemos preguntarnos acerca de la posibilidad de que haya un número infinito de Universos que se formen (y, llegado el momento, acaben) en esta Nada.

En resumen, el principio de incertidumbre afectó profundamente al pensamiento de físicos y filósofos. Ejerció una influencia directa sobre la cuestión filosófica de causalidad, la relación entre causa y efecto. Pero sus implicaciones para la ciencia no son las que se suponen popularmente a menudo. Se puede leer que el principio de incertidumbre anula toda certeza acerca de la naturaleza, y muestra que, al fin y al cabo, la ciencia no sabe ni sabrá nunca hacia dónde se dirige, que el conocimiento científico está a merced de los caprichos imprevisibles de un Universo donde el efecto no sigue necesariamente a la causa. Pero tanto si esta interpretación es válida desde el ángulo filosófico como si no, el principio de incertidumbre no ha modificado un ápice la actitud del científico ante la investigación. Y esto por varios motivos:

  • La incertidumbre también existe a un nivel clásico. Por ejemplo, incluso si nos olvidamos de posibles efectos cuánticos, no se puede predecir con certeza el comportamiento de las moléculas individuales en un gas. Sin embargo, estas moléculas acatan ciertas leyes termodinámicas, y su conducta es previsible sobre una base estadística. Estas predicciones son infinitamente más precisas que las de las compañías aseguradoras, que planifican su actividad (y obtienen beneficios) calculando con índices de mortalidad fiables, aunque les sea imposible predecir cuándo morirá un individuo determinado.
  • Ciertamente, en muchas observaciones científicas, la incertidumbre es tan insignificante comparada con la escala correspondiente de medidas, que se la puede descartar para todos los propósitos prácticos. Uno puede determinar simultáneamente la posición y el movimiento de una estrella, o un planeta, o una bola de billar, o incluso un grano de arena con exactitud absolutamente satisfactoria.
  • La incertidumbre entre las propias partículas subatómicas no representa un obstáculo, sino una verdadera ayuda para los físicos. Se la ha empleado para entender el modelo atómico (que resultaba inestable desde el punto de vista no cuántico), esclarecer hechos sobre la radiactividad, sobre la absorción de partículas subatómicas por los núcleos, y otros muchos acontecimientos subatómicos. En ello se emplea una economía lógica y razonabilidad muy superior de lo que hubiera sido esperable sin él.

Es cierto que el principio de incertidumbre o, en general, la física cuántica, se enfrenta a la paradoja no resuelta del problema de la medición (el gato de Schrödinger). Pero esta tiene sus orígenes en la distinción entre mente y materia, determinismo y libre albedrío, y profundiza en ella como nunca antes habían imaginado los filósofos. El principio de incertidumbre significa que el Universo es más complejo de lo que se suponía, pero no irracional.

Véase también[editar]

Referencias[editar]

  1. O. Stewart, 2001, p.169
  2. «Revisiting the Light Cone of the Goedel Universe». arXiv. Consultado el 12 de noviembre de 2005. 

Bibliografía[editar]

  • I. Stewart: ¿Juega Dios a los dados?, Ed. Crítica, Barcelona, 2001, ISBN 978-84-8432-881-0.
  • Alberto Clemente de la Torre: Física cuántica para filo-sofos. Fondo de Cultura Económica, 2000, ISBN 968-16-6199-0.

Enlaces externos[editar]