22 de febrero de 2022

Falsedades en física moderna (5 de 6)

David Pratt
Enero 2008, febrero de 2016


Contenidos:

05. Rarezas y disparates cuánticos
-Incertidumbre y causalidad
-Colapso de abstracciones
-Interpretación causal
-Enlazamiento cuántico


05. Rarezas y disparates cuánticos

El formalismo matemático de la teoría cuántica ha demostrado ser extremadamente efectivo, pero no existe consenso sobre lo que realmente describen las matemáticas. Una afirmación común es que el mundo cuántico ha demostrado ser completamente extraño, indeterminista, no visualizable, contraintuitivo e impermeable a la lógica humana. Se supone que está gobernado por la probabilidad absoluta y las partículas existirían como "ondas de probabilidad" difusas que de alguna manera se convierten en partículas reales sólo cuando intentamos medirlas, pero esta creencia popular es pura ficción. Muchos físicos han probado que todas las resultantes experimentales son totalmente susceptibles de una interpretación racional, sensata y causal siempre que introduzcamos un nivel de realidad subcuántico.


Incertidumbre y causalidad

El famoso "principio de incertidumbre" formulado por Werner Heisenberg en 1927 sostiene que es imposible medir de modo simultáneo y exacto la posición y el momentum de una partícula, o la energía y duración en un evento de liberación energética; de esta forma, la incertidumbre nunca puede ser menor que la constante de Planck (h). No hace falta decir que debe haber cierta inconstancia en la medición ya que cualquier mensura debe implicar el intercambio de al menos un fotón de energía que perturbe el sistema que se está observando de manera impredecible. Obviamente, el hecho de que no sepamos las propiedades exactas de una partícula o el camino preciso que sigue no significa que no tenga una trayectoria definida o posea rasgos determinados a menos que estemos tratando de observarla, pero ésta fue la interpretación planteada por el físico danés Niels Bohr, y la mayoría de especialistas en la década de 1920 siguió su ejemplo dando lugar al enfoque predominante en Copenhague sobre física cuántica.

La interpretación convencional asume que las partículas están sujetas a fluctuaciones cuánticas completamente aleatorias; en otras palabras, se cree que el mundo cuántico se caracteriza por el indeterminismo absoluto y la anarquía irreductible. Por otro lado, David Bohm opinó que el abandono de la causalidad había sido demasiado presuroso:

"Es muy posible que si bien la teoría cuántica y el principio de indeterminación son válidos en un grado muy alto de aproximación en un determinado dominio, ambos dejan de tener relevancia en nuevos niveles por debajo de aquéllos donde la teoría actual es aplicable. De esta forma, la conclusión de que 'no hay un nivel más profundo de movimiento determinado causalmente' es sólo una parte del razonamiento circular, ya que si lo asumimos de antemano sólo se podrá inferir que no existe tal ámbito" (1).

James Wesley asevera que el principio de incertidumbre es lógica y científicamente erróneo y falso en la práctica al ser aplicable sólo en ciertas situaciones de medición restringida, y no representa un límite en el conocimiento que podemos tener sobre el estado de un sistema. Wesley señala seis instancias sobre el fracaso experimental del principio de incertidumbre: por ejemplo, el momentum y la posición de un electrón en un átomo de hidrógeno se conocen con una precisión de seis órdenes de magnitud mayor que la permitida por el principio de incertidumbre (2); así, en la teoría cuántica clásica o causal de Wesley el principio de incertidumbre es superfluo.

Incluso Heisenberg tuvo que admitir que dicho axioma no se aplicaba a las mediciones retrospectivas. Como dice W.A. Scott Murray: "Al observar el mismo electrón en dos ocasiones muy distantes en tiempo y espacio podemos determinar dónde estaba ese electrón en el momento de la primera medición y qué tan rápido se movía, y en principio podemos determinar ambas cantidades después del evento con cualquier precisión que se nos plazca (...) Nuestra habilidad para calcular de forma precisa la posición anterior y el ímpetu de un electrón sobre la base de un conocimiento posterior constituye una prueba filosófica de que el comportamiento en esa partícula estaba determinado durante el intervalo" (3).

De acuerdo con la postura de Copenhague, las partículas microfísicas no obedecen a la causalidad como individuos, sino sólo en promedio, pero ¿cómo puede supuestamente un ámbito cuántico "sin ley" dar lugar a regularidades estadísticas mostradas por el comportamiento colectivo de los sistemas cuánticos? No se justifica en absoluto asumir que ciertos eventos cuánticos sean "completamente no-causales" sólo porque no podamos predecirlos ni identificar las causas implicadas. Nadie ha demostrado jamás que un evento sucediera sin una causa, y por lo tanto es razonable suponer que obedezca a una causalidad a través de la Naturaleza infinita. H.P. Blavatsky escribe: 'Es imposible concebir algo sin una causa y el intento de hacerlo hace que la mente se quede en blanco" (4), ¡y esto implica que debe haber un gran número de científicos caminando con mentes vacías!


Colapso de abstracciones

Un sistema cuántico está representado matemáticamente por una función de onda que se deriva de la ecuación de Schrödinger. La función de onda puede emplearse para calcular la probabilidad de encontrar una partícula en cualquier punto particular del espacio. Cuando se realiza una medición, la partícula se encuentra obviamente en un sólo lugar, pero si se supone que la función de onda proporciona el retrato completo sobre el estado de un sistema cuántico -como en la interpretación de Copenhague-, esto significaría que entre las mediciones la partícula se disuelve en una "superposición de ondas de probabilidad" y está potencialmente presente en muchos lugares diferentes a la vez. Luego, cuando se realiza la siguiente medición se cree que este "paquete de onda" completamente hipotético "colapsa" de forma instantánea -y en alguna manera aleatoria y misteriosa- en una nueva partícula localizada.

La idea de que las partículas se pueden convertir en "ondas de probabilidad" -que no son más que construcciones matemáticas abstractas- y que dichas abstracciones pueden "colapsar" en una partícula real es otro ejemplo de los físicos que sucumben a un contagio matemático: la incapacidad de distinguir entre abstracciones y sistemas concretos.

Además, puesto que el dispositivo de medición -que se supone desintegra la función de onda en una partícula- está formado por componentes subatómicos, al parecer su propia función de onda tendría que verse colapsada por otro instrumento de medición (que podría ser el ojo y cerebro de un observador humano), que a su vez se vería intervenido por otro artefacto adicional y así sucesivamente, conduciendo a una regresión infinita. De hecho, la interpretación estándar de la teoría cuántica implica que todos los objetos macroscópicos que vemos en derredor existen en un estado objetivo y no ambiguo sólo cuando se están midiendo u observando. Erwin Schrödinger ideó un famoso experimento conceptual para exponer las absurdas implicaciones de esta interpretación. Se coloca un gato en una caja que contiene una sustancia radioactiva, de modo que existe una probabilidad de 50-50 de que un átomo se desintegre en una hora. Si un átomo se descompone, desencadena la liberación de un gas venenoso que mata al animal. Después de una hora, el gato supuestamente está tanto muerto como vivo (y todas las otras posibilidades entremedio) hasta que alguien abre el contenedor e instantáneamente colapsa su función de onda en un gato vivo o muerto.

Se han propuesto varias soluciones al "problema de medición" asociado con el colapso de la función de onda. Un enfoque particularmente absurdo es la hipótesis sobre la existencia de muchos mundos que afirma que el Universo se divide cada vez que se realiza una medida (o una interacción similar a una mensura) de modo que todas las posibilidades representadas por la función de onda (por ejemplo, un gato muerto y otro vivo) existen objetivamente, pero en diferentes universos. También se supone que nuestra propia conciencia se divide constantemente en diferentes seres que habitan estos mundos proliferantes y no comunicantes.

Otros teóricos especulan que es la conciencia lo que colapsa la función de onda y por lo tanto crea la realidad. En esta perspectiva, una partícula subatómica no asume propiedades definidas cuando interactúa con un dispositivo de medición, sino sólo cuando la lectura de este aparato se registra en la mente de un observador. De acuerdo con la versión antropocéntrica más extrema de esta idea, sólo los seres autoconscientes como nosotros pueden colapsar funciones de onda; esto significa que todo el Universo debe haber existido originalmente como "potencia" en algún ámbito trascendental de probabilidades cuánticas hasta que los seres autoconscientes evolucionaron y se autocolapsaron y al resto de su rama de realidad en el mundo material, y los objetos permanecen en un estado tangible sólo mientras los humanos los observen (5).

Algunos escritores con ideas místicas han acogido este enfoque, pues parece restablecer la conciencia en el seno de la cosmovisión científica y ciertamente lo hace, pero a expensas de la razón, la lógica y el sentido común. Según la filosofía teosófica, la realidad última es la conciencia (o más bien la conciencia-vida-sustancia) que existe en grados de densidad infinitamente variados y en una multiplicidad infinita de formas. El mundo físico puede considerarse como la proyección o emanación de una mente universal en el sentido de que se ha condensado a partir de niveles etéreos y en último término "espirituales" de energía-sustancia, guiados por patrones establecidos por ciclos previos de evolución; pero sugerir que los objetos físicos (por ejemplo, la Luna) no existen a menos que sean observados por humanos es simplemente estúpido: un conato de mistificación en lugar de misticismo genuino. La mente humana sólo ejerce una influencia directa y significativa sobre los objetos físicos en casos de psicoquinesis genuina o "mente sobre materia".


Interpretación causal

Albert Einstein, Max Planck y Erwin Schrödinger se opusieron enérgicamente al enfoque probabilista de Copenhague. En 1924 Louis de Broglie propuso que el movimiento de las partículas físicas es guiado por "ondas piloto", una idea que fue desarrollada posteriormente por David Bohm, Jean-Pierre Vigier y varios otros físicos dando lugar a una interpretación alternativa, más realista e inteligible de la física cuántica (6).

La interpretación causal u ontológica de Bohm-Vigier sostiene que una partícula es una estructura compleja que siempre está acompañada por una onda piloto que guía su movimiento al ejercer una fuerza potencial cuántica. Por lo tanto, las partículas siguen trayectorias causales aunque no podamos medir su movimiento exacto. Para Bohm, el potencial cuántico opera desde un nivel más profundo de realidad que él llama "orden implicado" que se vincula con el campo electromagnético de punto cero, y a veces se le llama "fluido subcuántico" o "éter cuántico". Vigier lo ve como un éter de tipo Dirac que consiste en estados superfluidos de pares de partícula-antipartícula. Bohm postuló que las partículas no son fundamentales, sino más bien formas relativamente constantes producidas por la incesante convergencia y divergencia de ondas en un "orden superimplicado" y que puede haber una serie interminable de tales órdenes, cada una con un aspecto tanto de materia como de conciencia.

Una de las demostraciones clásicas para la supuesta rareza del reino cuántico es el "experimento de doble rendija". El aparato consiste en una fuente de luz, una placa con dos rendijas cortadas y tras ella una placa fotográfica. Si ambas ranuras están abiertas se forma un patrón de interferencia en la pantalla, incluso cuando se supone que los fotones u otras partículas cuánticas se aproximan a las ranuras de una en una. La interpretación de Copenhague es que una sóla partícula pasa en algún sentido indefinible a través de ambas rendijas simultáneamente y de alguna manera interfiere consigo misma; esto se atribuye a la "dualidad onda-partícula" por lo que no ofrece ninguna otra explicación. En el enfoque de Bohm-Vigier, por otro lado, cada partícula pasa a través de una sóla abertura mientras que la onda cuántica pasa a través de ambas, dando lugar al patrón de interferencia.

De esta manera, en el modelo de Bohm-Vigier el mundo cuántico existe incluso cuando no se está observando o midiendo, y rechaza la visión positivista de que no puede decirse que algo "no exista" al no poder calibrarse o conocerse con precisión. Las probabilidades calculadas a partir de la función de onda indican las chances de que una partícula esté en diferentes posiciones independiente de si se realiza una mensura, mientras que en la interpretación convencional indican las posibilidades de que una partícula llegue a existir en diferentes posiciones cuando se realiza dicha medida. El Universo se está autodefiniendo constantemente a través de sus interacciones incesantes -de las cuales la medición es sólo una instancia particular- y por tanto no pueden surgir situaciones absurdas como "gatos vivos y muertos".

James Wesley ha criticado el enfoque de Bohm-Vigier por aceptar demasiados aspectos de la teoría cuántica tradicional y argumenta que la hipótesis convencional de Schrödinger es irremediablemente inconsistente; el flujo y la densidad calculados de las partículas se basan puramente en especulaciones teóricas y Schrödinger hizo la afirmación imposible de que los sistemas unidos carecen de cualquier movimiento; en otras palabras, el electrón en el átomo de hidrógeno puede tener un momentum angular orbital sin ningún movimiento orbital. La teoría de Bohm admite las líneas de flujo arbitrarias de Schrödinger, pero dice que deben aceptarse en serio como trayectorias de partículas cuánticas reales. Wesley señala que las ecuaciones en cuestión no otorgan las velocidades correctas y producen las trayectorias precisas sólo cuando es admisible la aproximación de tiempo-promedio, como lo es en el experimento de doble rendija (7). 

Fig. 5.1. Trayectorias de partículas cuánticas de tiempo-promedio en el experimento de doble rendija (8).

Con respecto al experimento ya descrito, Wesley señala la suposición de que nunca se ha verificado experimentalmente que, si la intensidad de la luz es muy débil, los fotones se acercan a las rendijas individualmente, aseverando que los fotones se emiten en ráfagas y que por cada fotón u otra partícula cuántica percibida más de 100 escapan a la detección. El autor cita varios experimentos que muestran que un flujo de fotones ampliamente separados no presenta interferencias, lo que contradice los pronósticos en las interpretaciones de Bohm-Vigier y Copenhague (9). Wesley también dice que la interferencia, el comportamiento de onda y los efectos cuánticos sólo pueden surgir en un sistema de muchas partículas coherentes y admite que la causa subyacente en la conducta de onda exhibida por las partículas cuánticas permanece desconocida. De hecho, como él rehúsa la existencia de un éter subcuántico, es difícil ver cómo podría llegar a una explicación causal para los movimientos de las partículas.


Entrelazamiento cuántico

La teoría cuántica predice que si una molécula se descompone en dos átomos con espines opuestos, si un átomo emite dos fotones con giros contrarios y ambos átomos o fotones se separan en direcciones opuestas, su comportamiento permanecerá correlacionado sin importar qué tan alejados estén, en una manera que no puede explicarse en términos de señales que viajan entre ellas a una velocidad igual o menor a la de la luz. Los átomos o fotones de giro correlacionado se describen mediante una función de onda única, lo que implica que constituyen un sólo sistema. Esto significa que si se realiza una medición para determinar el giro de uno de ambos sistemas (donde el resultado es impredecible pues la mensura inevitablemente perturba el conjunto), una medición simultánea en el segundo sistema calibrará el giro opuesto. Este fenómeno se denomina "no-localidad" o "entrelazamiento cuántico" (10) y en ocasiones los ensayos para verificarlo se llaman "experimentos E.P.R." en honor a Einstein, Podolsky y Rosen quienes propusieron el ensayo conceptual de origen.

Los primeros experimentos significativos de E.P.R. fueron realizados por Alain Aspect y su equipo en 1982, utilizando fotones polarizados producidos en cascadas atómicas y desde entonces se han llevado a cabo otras pruebas (11). En general se cree que estos experimentos han confirmado la existencia de conexiones "no-locales"; sin embargo, cabe señalar que todos los ensayos hasta la fecha tienen lagunas y por tanto no son concluyentes (12). Por ejemplo, el equipo de Aspect asumió que sus fotomultiplicadores detectaron fotones con una eficiencia del 100% (a diferencia de una cifra más realista del 0,2%), fallaron en publicar la información bruta y tuvieron que recurrir a una manipulación de datos altamente dudosa antes de obtener la resultante deseada (13).

Si las conexiones no-locales son verdaderas, ¿cómo deben ser interpretadas? La explicación habitual es que son un ejemplo de "acción a distancia" instantánea y no causal que no implica la transmisión de ningún tipo de energía o señal entre los sistemas "entrelazados". Una opinión causal y alternativa es que las partículas se comunican no de modo absolutamente instantáneo, sino sólo más rápido que la luz. Vigier propuso que las interacciones no locales están mediadas por el potencial cuántico llevado por ondas de fase superluminal en el éter cuántico.

Algunos escritores han sostenido que el "entrelazamiento cuántico" muestra que la "ciencia" ha demostrado el principio místico de que todo en el Universo está interconectado, lo cual es una exageración vulgar. La teoría cuántica implica que el entrelazamiento cuántico sólo ocurre en circunstancias específicas y no hace falta decir que existen interacciones incesantes entre todos los variados sistemas que conforman el Universo. Además, hay buenas razones para proponer un éter subcuántico en que las señales y fuerzas pueden propagarse más rápido que la luz, pero no de forma totalmente instantánea. Sin embargo, no se deduce necesariamente que el comportamiento de giro en dos fotones de origen común siempre deba estar correlacionado con precisión. En consecuencia, si alguna prueba de entrelazamiento futuro e infalible refutara las correlaciones no locales predichas por la teoría cuántica, no anularía la posibilidad de la transmisión superluminal de fuerza, energía o información.


Referencias

1. David Bohm, Causality and Chance in Modern Physics, London: Routledge & Kegan Paul, 1984 (1957), p. 95.

2. J.P. Wesley, "Failure of the uncertainty principle", Physics Essays, v. 9, 1996, p. 434-9; James Paul Wesley, Classical Quantum Theory, Blumberg: Benjamin Wesley, 1996, p. 152-66.

3. W.A. Scott Murray, "A heretic’s guide to modern physics: the limitation of indeterminacy", Wireless World, marzo de 1983, p. 44-6.

4. H.P. Blavatsky, La Doctrina Secreta, TUP, 1977 (1888), 1:44.
5. "The monistic idealism of A. Goswami: a theosophical appraisal", davidpratt.info.
6. Véanse "Consciousness, causality, and quantum physics", "David Bohm and the implicate order", "Jean-Pierre Vigier and the stochastic interpretation of quantum mechanics", davidpratt.info.

7. J.P. Wesley, "Classical quantum theory", Apeiron, v. 2, 1995, p. 27-32, http://redshift.vif.com; Classical Quantum Theory, p. 279-82.

8. D. Bohm y B.J. Hiley, The Undivided Universe: An ontological interpretation of quantum theory, London: Routledge, 1993, p. 53; Classical Quantum Theory, p. 241.

9. Classical Quantum Theory, p. 75-128.
10. http://en.wikipedia.org/wiki/Quantum_entanglement.
11. http://en.wikipedia.org/wiki/Bell_test_experiments.
12. http://en.wikipedia.org/wiki/Loopholes_in_Bell_test_experiments; Caroline H. Thompson, "Subtraction of 'accidentals' and the validity of Bell tests", 2006, http://arxiv.org; Caroline H. Thompson, "Rotational invariance, phase relationships and the quantum entanglement illusion", 2007, http://arxiv.org.

13. Classical Quantum Theory, p. 129-51.