22 de febrero de 2022

Falsedades en física moderna (3 de 6)

David Pratt
Enero de 2008, febrero de 2016


Contenido:
 
03. Delirios de simetría y unificación


03. Delirios de simetría y unificación

Para la mayoría de los físicos la "unificación" significa "simetría". A energías cada vez mayores las partículas de materia y fuerza comienzan a fusionarse, dando como resultado un mayor incremento en simetría. Supuestamente existía una proporción perfecta justo después del Big Bang, el evento mítico en que explotó "de la nada" toda la existencia, la materia y energía e incluso el espacio y el tiempo. Se cree que esta fase de perfecta simetría duró sólo 10-43 segundos durante la cual el espacio-tiempo se habría expandido 1048 veces más rápido que la luz, un evento denominado "inflatón". A medida que el Universo se enfrió, hubo una ruptura espontánea de simetría: primero la gravedad se separó como una fuerza distinta, luego la fuerza nuclear fuerte y finalmente la fuerza nuclear débil y el electromagnetismo. Se cree que las partículas originales de alta energía formaron una especie de plasma de quark-gluones, del cual eventualmente las partículas que conocemos hoy emergieron y comenzaron a combinarse.

Cada año se gastan aproximadamente 775 millones de dólares en física de alta energía en EE.UU. y una cantidad similar en Europa. El objetivo es construir aceleradores de partículas cada vez más grandes y potentes para recrear el estado general más unificado y simétrico que se piensa existió justo después del Big Bang. Esto podría llamarse "enfoque de la unificación por el martillo", es decir, "aplástese las cosas con la suficiente violencia y se fusionarán en una sóla". Existen pocas dudas de que se encontrará un número ilimitado de otras "resonancias" de corta duración a medida que aumenta la velocidad de las colisiones entre partículas, pero no hay razón para pensar que tengan una gran relevancia para comprender la estructura del mundo material. No hay una sóla teoría general y realista para explicar qué son realmente los electrones y los protones (y sus antipartículas) y es poco probable que los científicos se vuelvan más sabios al estudiar los escombros producidos al romper estas partículas a energías ultra-altas.

Fig. 3.1. El detector DELPHI en el Gran Colisionador de Electrones y Positrones (LEP, en inglés), CERN (http://home.fnal.gov/~skands).

Fig. 3.2. Trazos de partículas (rastros de pequeñas burbujas) en una cámara de burbujas al estilo antiguo. Un antiprotón entra por la parte inferior, colisiona con un protón (en reposo) y se "aniquila" dando lugar a ocho piones (http://particleadventure.org).

El camino hacia la unificación se inició en el siglo XIX. James Clerk Maxwell presumiblemente logró una comprensión unificada de la electricidad y el magnetismo y publicó sus ecuaciones sobre el tema en 1864. Aunque esto es lo que afirman los libros de texto, muchos científicos han demostrado que las ecuaciones de Maxwell no proporcionan una comprensión adecuada de las fuerzas eléctricas y magnéticas. James Wesley escribe: "La teoría de Maxwell no pasa muchas pruebas experimentales y sólo tiene un rango de validez limitado (...) Lo que sigue obstaculizando el progreso en física es la creencia fanática sobre la validez en la teoría de Maxwell para toda situación, como la convicción intolerante en la 'relatividad especial' que se pretende estar confirmada por la idea de aquél" (1). Los científicos e inventores Paulo y Alexandra Correa muestran que los errores fundamentales de Maxwell incluían las unidades dimensionales incorrectas para los campos magneto-eléctricos y la corriente, "dos errores de época que se han reproducido durante más de un siglo contribuyendo en gran medida a detener el desarrollo de la teoría de campo" (2).

De acuerdo con la tercera ley de Newton, cada acción provoca una reacción igual y opuesta, pero se han observado fuerzas electrodinámicas desequilibradas en diversos entornos experimentales; por ejemplo, fuerzas de reacción catódicas y anómalas en tubos de descarga eléctrica y aceleración anormal de iones por electrones en plasmas. Para explicar esto algunos científicos argumentan que la ley de fuerza relativista y moderna de Lorentz debe ser reemplazada por la más antigua de Ampère (3), pero también esta regla es inadecuada. Tanto Lorentz como Ampère asumieron que los circuitos eléctricos interactuantes no pueden intercambiar energía con el medio de "vacío" local (es decir, el éter). En 1969 Harold Aspden publicó una ley alternativa de electrodinámica que puede explicar toda la evidencia experimental: modifica la tercera ley electrodinámica de Maxwell para esclarecer las diferentes masas de los portadores de carga implicados (por ejemplo, iones y electrones) y permite que la energía sea transferida hacia y desde el éter circundante; así, Aspden dice que acción y reacción sólo se equilibran si se toma en cuenta el éter (4). Un problema adicional es que Lorentz asumió que la fuerza de campo se propaga a la velocidad de la luz, mientras que Ampère concebía una acción instantánea a distancia. Claramente y para mantener la causalidad las fuerzas deben propagarse a velocidades finitas, pero los Correa argumentan que la fuerza de campo -llevada por cargas etéricas- no está restringida a la velocidad de la luz y no debe confundirse con la fuerza mecánica que dos cargas materiales ejercen una sobre otra (5).

La exactitud en la ley de Aspden se demuestra mediante los reactores de descarga incandescente y anormal por pulso (PAGD, por sus siglas en inglés) desarrollados por los Correa que producen más energía de la que se requiere para activarlos mediante la excitación de oscilaciones autosuficientes en una descarga de plasma en un tubo de vacío. Con una eficiencia de rendimiento general del 483%, los dispositivos claramente extraen energía de una fuente que no existe para la física oficial, y Aspden identifica el mecanismo involucrado como "espín de éter" (6). La Oficina de Patentes de EE.UU. concedió derechos para la invención de PAGD en 1995-96, confirmando así que es posible producir energía por sobre la eficiencia mayor unitaria (over-unity).

Sin embargo, los físicos teóricos de cabecera están demasiado ocupados en sus ideas para prestar atención a los hechos experimentales verificables y los descubrimientos tecnológicos que trastornan la teoría electromagnética clásica. Como dijo Wilhelm Reich, "han abandonado la realidad para retirarse a una torre de marfil de símbolos matemáticos" (7), y creyendo que la electricidad y el magnetismo se habían unificado adecuadamente continuaron a ciegas con el siguiente paso en la "unificación" cuando, al invocar simetrías abstractas (la "teoría gauge"), presumiblemente en la década de los '70 las fuerzas electromagnéticas y nucleares débiles se mostraron como facetas de una fuerza "electrodébil" común. Como ya se mencionó, algunos investigadores no principales descartan la teoría electrodébil al calificarla de especulación matemática ociosa.

La siguiente fase fue tratar de aunar las fuerzas electrodébiles y fuertes en una "gran fuerza unificada". De acuerdo con la teoría de gran unificación (TGU) la fusión de estas dos incidencias tiene lugar en energías por encima de 1014 GeV. Las partículas portadoras de fuerza correspondientes se conocen como bosones X e Y, pero no se han observado ya que sus energías teóricas están muy lejos del alcance de cualquier acelerador.

Un pronóstico comprobable de las TGU es la lenta descomposición de los protones en piones y positrones. Sin la desintegración de los protones la teoría del Big Bang colapsa porque toda la materia y antimateria creadas en los primeros instantes del tiempo se aniquilarían entre sí y no habría exceso de protones y electrones para formar el Universo observable. Las TGU predijeron que los protones deberían tener una vida promedio de 1030 años; sin embargo, los experimentos no pudieron encontrar ningún signo de decaimiento de protones, y entonces los teóricos de TGU volvieron a sus pizarras, modificaron sus ecuaciones y demostraron que la vida útil de estos componentes era de aproximadamente 1033 años, demasiado tiempo para ser refutado por los experimentos.

Los modelos de TGU vaticinaron la existencia de partículas extremadamente masivas conocidas como "monopolos magnéticos" o "erizos" (todos los imanes conocidos son dipolos, es decir, norte y sur) y ninguno de ellos ha sido detectado, pero se ha sostenido que si fuesen reales se habrían amplificado hasta ser inexistentes por la supuesta expansión del Universo. Las TGU también anticiparon defectos topológicos en el "espacio-tiempo" como cuerdas cósmicas unidimensionales y paredes de dominio bidimensionales. No en vano, estas construcciones matemáticas abstractas jamás han sido observadas.

Para incluir la gravedad y producir una noción completamente unificada de "superfuerza", los teóricos buscan una descripción cuántica de la gravedad. Como se mencionó en la sección anterior, modelar un electrón como partícula puntual significa que la energía de los fotones virtuales que lo rodean es infinita y que el electrón tiene masa infinita, una incomodidad que se supera al aplicar el truco matemático de la renormalización. Mientras que los fotones reaccionan fuertemente con partículas cargadas sin acoplarse entre sí, se cree que los gravitones se eslabonan de forma extremadamente débil con partículas de materia, pero interactúan con vigor entre sí. Esto significa que cada partícula de materia está rodeada por una red infinitamente compleja de bucles de gravitones y cada nivel de bucle agrega un nuevo infinito al cálculo (8), todo lo cual hizo necesario dividir ambos lados de la ecuación por infinidad un número también ilimitado de veces.

Mientras tanto, la simetría fue reemplazada por la "supersimetría" (o "SUSY"-Super Symmetry) que está arraigada en el concepto de giro. La idea básica es que las partículas de materia (fermiones) y aquéllas transportadoras de fuerza (bosones) no son realmente dos tipos diferentes de partículas, sino una. Se supone que cada fermión elemental tiene un "supercompañero" bosónico con propiedades idénticas, excepto la masa y el giro. Para cada quark hay un s-quark, para cada leptón un s-leptón, para todo gluón un gluino, un fotón con un fotino, etc. Además, para el campo bosónico de Higgs es necesario postular un segundo conjunto de ámbitos homónimos con un segundo conjunto de supercompañeros.

Un problema importante es que estas nuevas partículas (conocidas como "partículas-s") no pueden tener las mismas masas que las partículas ya conocidas, pues de lo contrario ya se habrían observado y deben ser tan pesadas que no podrían haberse generado por aceleradores actuales. Esto significa que la supersimetría debe ser una proporción rota espontáneamente y se dice que ello constituye un desastre para el proyecto supersimétrico, ya que necesitaría una gran variedad de nuevas partículas y fuerzas por encima de las que provienen de la supersimetría en sí misma. Todo ello destruye completamente la capacidad de la teoría para predecir cualquier aspecto. El resultado final es que el modelo tiene al menos 105 parámetros adicionales sin determinar que no estaban en el modelo estándar (9).

La supersimetría necesitaba que el gravitón estuviera acompañado por varios tipos de partículas portadoras de gravedad llamadas gravitinos, cada una con espín de -3/2. Se pensó que éstos de alguna forma podían anular los infinitos positivos de los bucles del gravitón, pero se encontró que las cancelaciones infinitas fallaron cuando se involucraban muchos bucles (10).

Los teóricos que buscan una explicación geométrica para todas las fuerzas de la naturaleza, en lugar de sólo la gravedad, encontraron que se requerían al menos 10 dimensiones de espacio y una de tiempo, haciendo 11 en total. Hubo un impulso a la teoría por el hecho de que la descripción más económica de "supergravedad" o el efecto combinado de gravitones y gravitinos (llamada N=8) también requiriera 11 dimensiones. En 1980, Stephen Hawking declaró que había una probabilidad del 50% de que se alcanzara una "teoría del todo" para el año 2000 y N=8 era su candidato para tal idea, pero en sólo cuatro años esta noción había pasado de moda (11). Además de estar plagada de infinitos, requería espacio y tiempo para poseer un número par de dimensiones con objeto de acomodar partículas giratorias, pero incluso para los matemáticos avanzados el 11 es un número impar (12).


Referencias

1. James Paul Wesley, Classical Quantum Theory, Blumberg: Benjamin Wesley, 1996, p. 250, 285-7.

2. Paulo N. Correa y Alexandra N. Correa, "The aetherometric approach to solving the fundamental problem of magnetism", ABRI monograph AS2-15, en Experimental Aetherometry, vol. 2B, Concord: Akronos Publishing, 2006, p. 1-33 (www.aetherometry.com).

3. Thomas E. Phipps, Old Physics for New: A worldview alternative to Einstein’s relativity theory, Montreal: Apeiron, p. 108-14; Peter Graneau y Neal Graneau, Newton versus Einstein: How matter interacts with matter, New York: Carlton, 1993, capítulo 4; Paul LaViolette, Genesis of the Cosmos: The ancient science of continuous creation, Rochester, VE: Bear and Company, 2004; p. 229-31, 272.

4. Harold Aspden, Creation: The physical truth, Brighton: Book Guild, 2006, p. 159-61; Harold Aspden, "A problem in plasma science", 2005, www.aetherometry.com.

5. Paulo N. Correa y Alexandra N. Correa, "A note on the law of electrodynamics", 2005, www.aetherometry.com.

6. Paulo N. Correa y Alexandra N. Correa, "Excess energy (XS NRGTM) conversion system utilizing autogenous Pulsed Abnormal Glow Discharge (aPAGD)", 2005, www.aetherometry.com; Harold Aspden, "Power from Space: The Correa invention", Energy Science Report n° 8, Southampton: Sabberton Publications, 1996, www.aspden.org.

7. Wilhelm Reich, Ether, God and Devil; Cosmic Superimposition, New York: Farrar, Straus and Giroux, 1973, p. 82.

8. Paul Davies y John Gribbin, The Matter Myth, New York: Touchstone/Simon & Schuster, 1992, p. 244.

9. Peter Woit, Not Even Wrong: The failure of string theory and the continuing challenge to unify the laws of physics, London: Vintage, 2007, p. 172-4.

10. The Matter Myth, p. 249-50.
11. Not Even Wrong, p. 110-2.
12. The Matter Myth, p. 253.