Mostrando entradas con la etiqueta Falsedades en física. Mostrar todas las entradas
Mostrando entradas con la etiqueta Falsedades en física. Mostrar todas las entradas

22 de febrero de 2022

Falsedades en física moderna (6 de 6)

David Pratt
Enero de 2008, febrero de 2016


Contenidos:

06. El rol del éter y modelos alternativos
-La perspectiva teosófica


06. El rol del éter y modelos alternativos

En física moderna las partículas subatómicas se describen de forma diversa como puntos de dimensión cero, cuerdas unidimensionales, cintas bidimensionales de espacio-tiempo, funciones de onda o paquetes de ondas de probabilidad, todas las cuales son abstracciones matemáticas. Algunas de las ecuaciones asociadas con estos conceptos pueden ser útiles, pero las teorías en cuestión no proporcionan un modelo realista respecto a qué son las partículas y por qué tienen propiedades particulares. Claramente deben ser entidades finitas, tridimensionales y estar compuestas por alguna clase de sustancia energética. También deben poseer estructura y ser capaces de deformarse (es decir, cambiar de tamaño y forma) pues de lo contrario no podrían absorber, emitir o intercambiar energía con otras partículas. El modelo estándar en la física de partículas es inadecuado porque no es más que un modelo matemático, y a continuación se describen algunos ejemplos sobre modelos alternativos.

Eric Lerner ha sugerido que las partículas pueden ser vórtices en un medio fluido y señala que el plasma -un fluido magnetizado- genera estructuras en forma de partículas (plasmoides) que varían en tamaño desde miles de milímetros hasta años-luz. Como se mencionó en la sección 2, los experimentos con protones de giro alineado implican que los protones son una especie de vórtice y los centros plasmoidales interactúan mucho más fuerte cuando giran en la misma dirección; y dado que el comportamiento del vórtice se haría evidente sólo en colisiones cercanas, los efectos deberían ser más pronunciados a energías más altas e interacciones más directas. Los resultados experimentales confirman esto, mientras que el enfoque de "simetría rota" favorecido por la física convencional predice que debería suceder lo contrario a energías más elevadas. Lerner agrega: "Las partículas actúan como si tuvieran 'preferencia de manualidad' y el proceso u objeto dinámico y más simple que exhibe una orientación inherente es un vórtice. Además, los vórtices diestros y zurdos se aniquilan entre sí al igual que las partículas y antipartículas" (1).

La idea de que la realidad se formó a partir de vórtices fue presentada por Anaxágoras hace 2.500 años y defendida por Descartes en el siglo XVII. A fines del siglo XIX algunos científicos propusieron que los átomos podrían ser vórtices en un medio etérico subyacente, que también fue invocado ampliamente para explicar la transmisión de fuerzas y ondas de luz. A principios de la centuria siguiente el éter pasó de moda entre los científicos de la corriente principal y fue reemplazado por un espacio vacío (curvado) que contenía una variedad de "campos". Cabe señalar que el famoso experimento de Michelson-Morley (1887) no refutó la existencia de un éter y falló al detectar una variación en la velocidad de la luz causada por el movimiento de la Tierra a través de un hipotético "éter estacionario". En 1905 Einstein descartó el éter como "superfluo" ya que la luz podría entenderse como un compuesto de partículas (fotones) en lugar de ondas que se propagan por un medio, y más tarde incluyó la noción de "éter gravitacional", pero lo redujo a una abstracción vacía negándole cualquier propiedad energética. Posteriormente abandonó el término "éter" por completo (2); sin embargo, numerosos investigadores y de modo individual han continuado desarrollando modelos basados en éter, los que ya están "unificados" en el sentido de que la materia y las fuerzas físicas se derivan de la actividad del medio etérico subyacente.

Como ya se mencionó, algunos físicos hablan de un "éter cuántico" lo cual se refiere a dos aspectos: 1) el campo de punto cero (ZPF), es decir, ámbitos de radiación electromagnética fluctuantes y producidos por alteraciones cuánticas aleatorias que según la teoría persisten incluso a una temperatura de cero absoluto (-273° C); y 2) innumerables pares de partículas "virtuales" de corta duración (como electrones y positrones), a veces llamadas "mar de Dirac". Formalmente, cada punto del espacio debe contener una cantidad infinita de energía de punto cero y al suponer una longitud de onda mínima de vibraciones electromagnéticas, la densidad de energía del "vacío cuántico" se ha reducido a la cifra aún astronómica de 10108 julios por centímetro cúbico.

Aunque se dice generalmente que varios resultados experimentales son consistentes con la existencia de energía de punto cero, se necesita más trabajo para probar la teoría y las explicaciones alternativas. Algunos científicos han sugerido que masa, inercia y gravedad están conectadas con la energía electromagnética fluctuante de ZPF; sin embargo, ésta en sí misma suele considerarse como el producto de materia-energía que supuestamente se produjo en el "Big Bang", mientras que las teorías modernas del éter en general sostienen que la materia física se cristaliza o disuelve en el éter preexistente. En la actualidad el único campo de energía electromagnética omnipresente y verificado es la radiación cósmica de fondo de microondas, que comúnmente es aclamada como "resplandor" del Big Bang, pero también es explicable como la temperatura del espacio o más bien del éter (3).

Paul LaViolette ha desarrollado una teoría conocida como "cinética subcuántica" que reemplaza el concepto decimonónico de un éter mecánico e inerte con el de un éter que transmuta continuamente (4). Las partículas subatómicas físicas y los cuantos de energía se representan como patrones de concentración en el éter con forma de onda o vórtice. Se dice que los campos gravitatorios y electromagnéticos de una partícula son resultado de los flujos de diferentes tipos de partículas etéricas o "eterones" a través de sus límites y los gradientes de concentración en estos componentes asociados.

(...) LaViolette (...) escribe: "Se han observado estructuras vorticales (...) similares a las dibujadas por Besant y Leadbeater a un nivel más macroscópico en los experimentos de física de plasma. Por ejemplo, se aprecia que el dispositivo de enfoque plásmico -un aparato de descarga para chispas de alta corriente utilizado en experimentos de fusión- produce vórtices de plasma esféricos que miden aproximadamente medio milímetro de diámetro. Cada uno de estos plasmoides consiste en ocho o diez filamentos plásmicos de corriente eléctrica, torcidos en una estructura helicoidal con forma de rosquilla" (6).

Los científicos del siglo XIX estaban confundidos acerca de las propiedades del éter porque para explicar la transmisión de ondas de luz ésta tenía que comportarse como sólido vibrante, pero para no retrasar el movimiento de los cuerpos celestes debía ser un fluido perfecto. El modelo de éter muy detallado según Harold Aspden considera que dicha sustancia tiene las propiedades de un cristal líquido y está compuesto de partículas cargadas (quones) establecidos en una matriz cúbica estructurada dentro de un continuo de carga uniforme de polaridad opuesta, por cuanto es eléctricamente neutro en general. Su paradigma puede explicar el valor de la constante de estructura fina (que vincula la constante de Planck, la carga de electrones y la velocidad de la luz), la relación de masa protón-electrón (basada en la propuesta de que los protones se forman a partir de muones virtuales que proporcionan el entorno energético principal en el éter) y la constante gravitacional, entre otros aspectos. La teoría de Aspden explica la gravitación como un fenómeno electrodinámico, permite la existencia de antigravedad y propone que la inducción del giro del éter permite la extracción de energía "libre" (es decir, etérica) (7).

Aspden se refiere al siguiente experimento simple que apunta a la existencia de un éter. Un rotor que contiene un imán se lleva a una cierta velocidad de rotación, se detiene repentinamente y luego es reiniciado de inmediato. Aspden descubrió que la energía requerida para llevarla a igual velocidad la segunda vez era sólo una décima de la que se requería la primera ocasión, pero éste dejó de ser el caso si esperaba media hora antes de reiniciar el rotor. Esto sugiere que el éter es coextensivo con el rotor que lo hace girar, pero mientras que el motor se puede detener en unos pocos segundos, el éter tarda mucho más tiempo en dejar de girar (8).

Paulo y Alexandra Correa también han desarrollado un modelo de éter dinámico con gran detalle, conocido como "eterometría". Sus experimentos con electroscopios, "acumuladores de orgón" (recintos metálicos especialmente diseñados o jaulas de Faraday) y bobinas Tesla apuntan a la existencia de formas eléctricas y no eléctricas de energía etérica (9). Descartan un éter puramente electromagnético, como el campo de punto cero, y sostienen que las unidades de éter se "superponen" para formar partículas físicas que toman la forma de un toroide. Siguiendo la visión de Wilhelm Reich, han encontrado pruebas de que los fotones no viajan a través del espacio: el Sol emite radiación eléctrica y etérica que puede viajar mucho más rápido que la velocidad de la luz, y los fotones son estructuras transitorias -como vórtices- generadas a partir de la energía, deshaciéndose al desacelerar las cargas físicas (como los electrones). Argumentan que la gravedad es esencialmente una fuerza electrodinámica y han encontrado evidencia experimental de antigravedad (10). La eterometría propone que los movimientos de rotación y traslación de planetas, estrellas y galaxias son el resultado de giros o movimientos vorticales de éter en escalas múltiples.

Las demostraciones de que la energía puede obtenerse de fuentes no reconocidas por la física oficial ayudarán a revivir un interés científico más amplio en el éter, que es una fuente infinita de energía no contaminante. Varios científicos opinan que se necesita un éter energético para explicar las reacciones nucleares de baja energía (o "fusión fría") (11). Muchos especialistas tradicionales niegan la posibilidad de una fusión a temperatura ambiente con reactores de tablero simplemente porque las teorías convencionales dicen que la fusión requiere temperaturas de decenas de millones de grados. De hecho, se desperdician miles de millones de dólares en un esfuerzo por crear un reactor de fusión en caliente que supuestamente imita los procesos que impulsan a las estrellas. Aspden argumenta que el Sol no puede ser un reactor de fusión nuclear porque está ionizado y la repulsión electrostática entre protones evitaría que se compactara lo suficiente para producir en su núcleo las temperaturas y presiones extremas requeridas para la fusión en caliente (12).


Fig. 6.2. Arriba: los doctores Paulo y Alexandra Correa con reactores PAGD en su laboratorio (13). Debajo: el díodo PAGD en funcionamiento (www.aetherometry.com).

Los Correa han desarrollado tres tecnologías para generación de energía:

• el reactor plásmico patentado de descarga anormal e incandescente por pulso (PAGD) que produce un exceso de energía al establecer una resonancia entre el plasma de electrones acelerado y la energía etérica local;

• el motor de éter autosustentable (patentado) que extrae energía etérica de recintos o cavidades resonantes tipo jaula de Faraday, seres vivos, antenas terrestres de vacío y atmosféricas, y

• el convertidor de energía HYBORAC que aprovecha el calor latente de una jaula de Faraday y puede suministrar calor, trabajo mecánico y electricidad durante todo el día utilizando energía solar y atmosférica etérica (14).

La ciencia del éter todavía se encuentra en su infancia y es natural que haya una multitud de modelos que son conflictivos en gran medida. Estas teorías muestran al menos que son posibles los modelos más racionales y en el mejor de los casos pueden identificar relaciones y ecuaciones numéricas útiles y proponer conceptos que se aproximen a las realidades de la naturaleza, pero todos los modelos inevitablemente incorporan simplificaciones, idealizaciones y abstracciones en algún grado y así el futuro de la física dependerá mayoritariamente de un esfuerzo científico concertado para explorar el éter invisible.


La perspectiva teosófica

De acuerdo con la Teosofía no puede haber un último nivel e "inferior" de realidad. El éter subyacente no puede ser continuo de modo perfecto, es decir, absolutamente sin estructura y homogéneo, ya que ésta es una abstracción imposible y debe consistir en discontinuidades similares a partículas que pueden actuar juntas para formar ondas. Siguiendo el principio de analogía, tales partículas serían concentraciones de un éter más profundo y sutil que puede considerarse relativamente continuo, pero en realidad consiste en partículas aún más finas que a su vez son concentraciones de un éter incluso más sutil, y así sucesivamente hasta el infinito. El espacio "vacío" que separa las partículas y los objetos en cualquier plano determinado -a través del cual parecen moverse- no está tan lleno de los niveles interpenetrados e invisibles de sustancias-energía (ni tampoco compuesto ni generado por ellos) que forman esferas y planos superiores e inferiores más allá de nuestro rango perceptivo. Por lo tanto, el espacio no está absolutamente vacío ya que esto sería equivalente a la nada pura; más bien se trata de la existencia de una totalidad infinita de sustancia-energía o conciencia.

Indudablemente, lo que para nosotros son partículas subatómicas en su propio nivel son tan complejas como nuestro propio planeta y estrella. Desde nuestra perspectiva un electrón puede ser considerado como partícula elemental, pero obviamente tiene forma y estructura y por lo tanto es divisible. Al ser una configuración de energía etérica condensada, se puede dividir y su energía es susceptible de transformarse en "resonancias" similares a partículas menos estables y de muy corta duración. Lo que llamamos un electrón probablemente no sea una entidad única y de existencia continua, pues denota el comportamiento promedio de un ente que se está encarnando de modo permanente y con una rapidez increíble. Un año para nosotros significa una sóla órbita del Sol, y ese mismo periodo para un electrón equivale a una sóla órbita del núcleo atómico; así, un segundo para nosotros es igual a unos 4 mil cuatrillones de años electrónicos (15). 

La Naturaleza es infinita en todas direcciones; no existe un tamaño finito más pequeño ni una magnitud finita más grande. Entre los dos límites abstractos de lo infinito e infinitesimal hay una inimaginable diversidad de entidades y cosas concretas y finitas, con tamaños y grados de sustancia-energía infinitamente variados, todos ellos vivos y conscientes hasta cierto punto. Cada entidad o sistema (átomos, planetas, estrellas, galaxias, etc. y los seres vivientes que los forman y habitan) está compuesta por entidades más pequeñas y forman parte de otras cada vez más grandes. Además, cualquier ente o conjunto en particular se compone de un espectro de sustancias energéticas que van desde las relativamente físicas hasta las relativamente espirituales, y cada jerarquía de mundos interactivos es simplemente una en una serie interminable que se extiende a reinos superiores cada vez más etéreos y a ámbitos inferiores más densos.

Aparte de los niveles etéricos más bajos que pueden considerarse como subplanos más altos en nuestro propio nivel físico, los mundos invisibles internos no pueden ser investigados directamente con instrumentos físicos. Sin embargo, la existencia de planos y cuerpos más sutiles puede inferirse según una amplia gama de fenómenos "anómalos" (16). El conocimiento exacto sobre algunos planos superiores que forman parte de nuestro propio sistema de mundos sólo puede ser obtenido por quienes han desarrollado suficientemente sus facultades y poderes ocultos internos (17). Los Adeptos teosóficos dicen que construyen su filosofía en "experimento y deducción" (18), pero su campo de investigación se extiende mucho más allá de la capa física y externa de la Naturaleza.


Referencias

1. Eric J. Lerner, The Big Bang Never Happened, New York: Vintage, 1992, p. 370-1.

2. "Espacio, tiempo y relatividad".
3. Harold Aspden, Creation: The physical truth, Brighton: Book Guild, 2006, p. 82; Harold Aspden, "The heresy of the aether", 1998, www.energyscience.org.uk.

4. Paul LaViolette, Genesis of the Cosmos: The ancient science of continuous creation, Rochester, VE: Bear and Company, 2004; Paul LaViolette, Subquantum Kinetics: A systems approach to physics and cosmology, Alexandria, VA: Starlane Publications, 2da edición, 2003 (www.etheric.com).

6. Genesis of the Cosmos, p. 237-8.
7. Aspden, Creation, www.aspden.org, www.energyscience.org.uk.
8. Harold Aspden, "The Aspden effect", 2002, www.energyscience.org.uk; Creation, p. 20-1.

9. Paulo N. Correa y Alexandra N. Correa, Experimental Aetherometry, vols. 1, 2A & 2B, Concord: Akronos Publishing, 2001, 2003, 2006 (www.aetherometry.com).

10. "Eterometría y gravedad: una introducción".
11. Eugene F. Mallove, "LENR and 'cold fusion' excess heat: their relation to other anomalous microphysical energy experiments and emerging new energy technologies", 2003, www.infinite-energy.com; Paulo N. Correa y Alexandra N. Correa, "The Correa solution to the ‘cold fusion’ enigma", 2004, www.aetherometry.com.

12. Creation, p. 147-57; Harold Aspden, "A problem in plasma science", 2005, www.aetherometry.com.

13. Michael Carrell, "The Correa invention: an overview and an investigation in progress", Infinite Energy, v. 2, 1996, p. 10-14.

14. "Correa Technologies", www.aetherometry.com; Keith Tutt, The Search for Free Energy: A scientific tale of jealousy, genius and electricity, London: Simon & Schuster, 2001, p. 218-22, 315-7.

15. "The infinite divisibility of matter", davidpratt.info.
16. "Worlds within worlds", davidpratt.info.
17. "The Mahatmas", "The Theosophical Mahatmas", davidpratt.info.
18. The Mahatma Letters to A.P. Sinnett, TUP, 2da edición, 1975, p. 144/TPH, ed. cron., 1993, p. 285; "Physical vs. occult science", davidpratt.info.

Falsedades en física moderna (5 de 6)

David Pratt
Enero 2008, febrero de 2016


Contenidos:

05. Rarezas y disparates cuánticos
-Incertidumbre y causalidad
-Colapso de abstracciones
-Interpretación causal
-Enlazamiento cuántico


05. Rarezas y disparates cuánticos

El formalismo matemático de la teoría cuántica ha demostrado ser extremadamente efectivo, pero no existe consenso sobre lo que realmente describen las matemáticas. Una afirmación común es que el mundo cuántico ha demostrado ser completamente extraño, indeterminista, no visualizable, contraintuitivo e impermeable a la lógica humana. Se supone que está gobernado por la probabilidad absoluta y las partículas existirían como "ondas de probabilidad" difusas que de alguna manera se convierten en partículas reales sólo cuando intentamos medirlas, pero esta creencia popular es pura ficción. Muchos físicos han probado que todas las resultantes experimentales son totalmente susceptibles de una interpretación racional, sensata y causal siempre que introduzcamos un nivel de realidad subcuántico.


Incertidumbre y causalidad

El famoso "principio de incertidumbre" formulado por Werner Heisenberg en 1927 sostiene que es imposible medir de modo simultáneo y exacto la posición y el momentum de una partícula, o la energía y duración en un evento de liberación energética; de esta forma, la incertidumbre nunca puede ser menor que la constante de Planck (h). No hace falta decir que debe haber cierta inconstancia en la medición ya que cualquier mensura debe implicar el intercambio de al menos un fotón de energía que perturbe el sistema que se está observando de manera impredecible. Obviamente, el hecho de que no sepamos las propiedades exactas de una partícula o el camino preciso que sigue no significa que no tenga una trayectoria definida o posea rasgos determinados a menos que estemos tratando de observarla, pero ésta fue la interpretación planteada por el físico danés Niels Bohr, y la mayoría de especialistas en la década de 1920 siguió su ejemplo dando lugar al enfoque predominante en Copenhague sobre física cuántica.

La interpretación convencional asume que las partículas están sujetas a fluctuaciones cuánticas completamente aleatorias; en otras palabras, se cree que el mundo cuántico se caracteriza por el indeterminismo absoluto y la anarquía irreductible. Por otro lado, David Bohm opinó que el abandono de la causalidad había sido demasiado presuroso:

"Es muy posible que si bien la teoría cuántica y el principio de indeterminación son válidos en un grado muy alto de aproximación en un determinado dominio, ambos dejan de tener relevancia en nuevos niveles por debajo de aquéllos donde la teoría actual es aplicable. De esta forma, la conclusión de que 'no hay un nivel más profundo de movimiento determinado causalmente' es sólo una parte del razonamiento circular, ya que si lo asumimos de antemano sólo se podrá inferir que no existe tal ámbito" (1).

James Wesley asevera que el principio de incertidumbre es lógica y científicamente erróneo y falso en la práctica al ser aplicable sólo en ciertas situaciones de medición restringida, y no representa un límite en el conocimiento que podemos tener sobre el estado de un sistema. Wesley señala seis instancias sobre el fracaso experimental del principio de incertidumbre: por ejemplo, el momentum y la posición de un electrón en un átomo de hidrógeno se conocen con una precisión de seis órdenes de magnitud mayor que la permitida por el principio de incertidumbre (2); así, en la teoría cuántica clásica o causal de Wesley el principio de incertidumbre es superfluo.

Incluso Heisenberg tuvo que admitir que dicho axioma no se aplicaba a las mediciones retrospectivas. Como dice W.A. Scott Murray: "Al observar el mismo electrón en dos ocasiones muy distantes en tiempo y espacio podemos determinar dónde estaba ese electrón en el momento de la primera medición y qué tan rápido se movía, y en principio podemos determinar ambas cantidades después del evento con cualquier precisión que se nos plazca (...) Nuestra habilidad para calcular de forma precisa la posición anterior y el ímpetu de un electrón sobre la base de un conocimiento posterior constituye una prueba filosófica de que el comportamiento en esa partícula estaba determinado durante el intervalo" (3).

De acuerdo con la postura de Copenhague, las partículas microfísicas no obedecen a la causalidad como individuos, sino sólo en promedio, pero ¿cómo puede supuestamente un ámbito cuántico "sin ley" dar lugar a regularidades estadísticas mostradas por el comportamiento colectivo de los sistemas cuánticos? No se justifica en absoluto asumir que ciertos eventos cuánticos sean "completamente no-causales" sólo porque no podamos predecirlos ni identificar las causas implicadas. Nadie ha demostrado jamás que un evento sucediera sin una causa, y por lo tanto es razonable suponer que obedezca a una causalidad a través de la Naturaleza infinita. H.P. Blavatsky escribe: 'Es imposible concebir algo sin una causa y el intento de hacerlo hace que la mente se quede en blanco" (4), ¡y esto implica que debe haber un gran número de científicos caminando con mentes vacías!


Colapso de abstracciones

Un sistema cuántico está representado matemáticamente por una función de onda que se deriva de la ecuación de Schrödinger. La función de onda puede emplearse para calcular la probabilidad de encontrar una partícula en cualquier punto particular del espacio. Cuando se realiza una medición, la partícula se encuentra obviamente en un sólo lugar, pero si se supone que la función de onda proporciona el retrato completo sobre el estado de un sistema cuántico -como en la interpretación de Copenhague-, esto significaría que entre las mediciones la partícula se disuelve en una "superposición de ondas de probabilidad" y está potencialmente presente en muchos lugares diferentes a la vez. Luego, cuando se realiza la siguiente medición se cree que este "paquete de onda" completamente hipotético "colapsa" de forma instantánea -y en alguna manera aleatoria y misteriosa- en una nueva partícula localizada.

La idea de que las partículas se pueden convertir en "ondas de probabilidad" -que no son más que construcciones matemáticas abstractas- y que dichas abstracciones pueden "colapsar" en una partícula real es otro ejemplo de los físicos que sucumben a un contagio matemático: la incapacidad de distinguir entre abstracciones y sistemas concretos.

Además, puesto que el dispositivo de medición -que se supone desintegra la función de onda en una partícula- está formado por componentes subatómicos, al parecer su propia función de onda tendría que verse colapsada por otro instrumento de medición (que podría ser el ojo y cerebro de un observador humano), que a su vez se vería intervenido por otro artefacto adicional y así sucesivamente, conduciendo a una regresión infinita. De hecho, la interpretación estándar de la teoría cuántica implica que todos los objetos macroscópicos que vemos en derredor existen en un estado objetivo y no ambiguo sólo cuando se están midiendo u observando. Erwin Schrödinger ideó un famoso experimento conceptual para exponer las absurdas implicaciones de esta interpretación. Se coloca un gato en una caja que contiene una sustancia radioactiva, de modo que existe una probabilidad de 50-50 de que un átomo se desintegre en una hora. Si un átomo se descompone, desencadena la liberación de un gas venenoso que mata al animal. Después de una hora, el gato supuestamente está tanto muerto como vivo (y todas las otras posibilidades entremedio) hasta que alguien abre el contenedor e instantáneamente colapsa su función de onda en un gato vivo o muerto.

Se han propuesto varias soluciones al "problema de medición" asociado con el colapso de la función de onda. Un enfoque particularmente absurdo es la hipótesis sobre la existencia de muchos mundos que afirma que el Universo se divide cada vez que se realiza una medida (o una interacción similar a una mensura) de modo que todas las posibilidades representadas por la función de onda (por ejemplo, un gato muerto y otro vivo) existen objetivamente, pero en diferentes universos. También se supone que nuestra propia conciencia se divide constantemente en diferentes seres que habitan estos mundos proliferantes y no comunicantes.

Otros teóricos especulan que es la conciencia lo que colapsa la función de onda y por lo tanto crea la realidad. En esta perspectiva, una partícula subatómica no asume propiedades definidas cuando interactúa con un dispositivo de medición, sino sólo cuando la lectura de este aparato se registra en la mente de un observador. De acuerdo con la versión antropocéntrica más extrema de esta idea, sólo los seres autoconscientes como nosotros pueden colapsar funciones de onda; esto significa que todo el Universo debe haber existido originalmente como "potencia" en algún ámbito trascendental de probabilidades cuánticas hasta que los seres autoconscientes evolucionaron y se autocolapsaron y al resto de su rama de realidad en el mundo material, y los objetos permanecen en un estado tangible sólo mientras los humanos los observen (5).

Algunos escritores con ideas místicas han acogido este enfoque, pues parece restablecer la conciencia en el seno de la cosmovisión científica y ciertamente lo hace, pero a expensas de la razón, la lógica y el sentido común. Según la filosofía teosófica, la realidad última es la conciencia (o más bien la conciencia-vida-sustancia) que existe en grados de densidad infinitamente variados y en una multiplicidad infinita de formas. El mundo físico puede considerarse como la proyección o emanación de una mente universal en el sentido de que se ha condensado a partir de niveles etéreos y en último término "espirituales" de energía-sustancia, guiados por patrones establecidos por ciclos previos de evolución; pero sugerir que los objetos físicos (por ejemplo, la Luna) no existen a menos que sean observados por humanos es simplemente estúpido: un conato de mistificación en lugar de misticismo genuino. La mente humana sólo ejerce una influencia directa y significativa sobre los objetos físicos en casos de psicoquinesis genuina o "mente sobre materia".


Interpretación causal

Albert Einstein, Max Planck y Erwin Schrödinger se opusieron enérgicamente al enfoque probabilista de Copenhague. En 1924 Louis de Broglie propuso que el movimiento de las partículas físicas es guiado por "ondas piloto", una idea que fue desarrollada posteriormente por David Bohm, Jean-Pierre Vigier y varios otros físicos dando lugar a una interpretación alternativa, más realista e inteligible de la física cuántica (6).

La interpretación causal u ontológica de Bohm-Vigier sostiene que una partícula es una estructura compleja que siempre está acompañada por una onda piloto que guía su movimiento al ejercer una fuerza potencial cuántica. Por lo tanto, las partículas siguen trayectorias causales aunque no podamos medir su movimiento exacto. Para Bohm, el potencial cuántico opera desde un nivel más profundo de realidad que él llama "orden implicado" que se vincula con el campo electromagnético de punto cero, y a veces se le llama "fluido subcuántico" o "éter cuántico". Vigier lo ve como un éter de tipo Dirac que consiste en estados superfluidos de pares de partícula-antipartícula. Bohm postuló que las partículas no son fundamentales, sino más bien formas relativamente constantes producidas por la incesante convergencia y divergencia de ondas en un "orden superimplicado" y que puede haber una serie interminable de tales órdenes, cada una con un aspecto tanto de materia como de conciencia.

Una de las demostraciones clásicas para la supuesta rareza del reino cuántico es el "experimento de doble rendija". El aparato consiste en una fuente de luz, una placa con dos rendijas cortadas y tras ella una placa fotográfica. Si ambas ranuras están abiertas se forma un patrón de interferencia en la pantalla, incluso cuando se supone que los fotones u otras partículas cuánticas se aproximan a las ranuras de una en una. La interpretación de Copenhague es que una sóla partícula pasa en algún sentido indefinible a través de ambas rendijas simultáneamente y de alguna manera interfiere consigo misma; esto se atribuye a la "dualidad onda-partícula" por lo que no ofrece ninguna otra explicación. En el enfoque de Bohm-Vigier, por otro lado, cada partícula pasa a través de una sóla abertura mientras que la onda cuántica pasa a través de ambas, dando lugar al patrón de interferencia.

De esta manera, en el modelo de Bohm-Vigier el mundo cuántico existe incluso cuando no se está observando o midiendo, y rechaza la visión positivista de que no puede decirse que algo "no exista" al no poder calibrarse o conocerse con precisión. Las probabilidades calculadas a partir de la función de onda indican las chances de que una partícula esté en diferentes posiciones independiente de si se realiza una mensura, mientras que en la interpretación convencional indican las posibilidades de que una partícula llegue a existir en diferentes posiciones cuando se realiza dicha medida. El Universo se está autodefiniendo constantemente a través de sus interacciones incesantes -de las cuales la medición es sólo una instancia particular- y por tanto no pueden surgir situaciones absurdas como "gatos vivos y muertos".

James Wesley ha criticado el enfoque de Bohm-Vigier por aceptar demasiados aspectos de la teoría cuántica tradicional y argumenta que la hipótesis convencional de Schrödinger es irremediablemente inconsistente; el flujo y la densidad calculados de las partículas se basan puramente en especulaciones teóricas y Schrödinger hizo la afirmación imposible de que los sistemas unidos carecen de cualquier movimiento; en otras palabras, el electrón en el átomo de hidrógeno puede tener un momentum angular orbital sin ningún movimiento orbital. La teoría de Bohm admite las líneas de flujo arbitrarias de Schrödinger, pero dice que deben aceptarse en serio como trayectorias de partículas cuánticas reales. Wesley señala que las ecuaciones en cuestión no otorgan las velocidades correctas y producen las trayectorias precisas sólo cuando es admisible la aproximación de tiempo-promedio, como lo es en el experimento de doble rendija (7). 

Fig. 5.1. Trayectorias de partículas cuánticas de tiempo-promedio en el experimento de doble rendija (8).

Con respecto al experimento ya descrito, Wesley señala la suposición de que nunca se ha verificado experimentalmente que, si la intensidad de la luz es muy débil, los fotones se acercan a las rendijas individualmente, aseverando que los fotones se emiten en ráfagas y que por cada fotón u otra partícula cuántica percibida más de 100 escapan a la detección. El autor cita varios experimentos que muestran que un flujo de fotones ampliamente separados no presenta interferencias, lo que contradice los pronósticos en las interpretaciones de Bohm-Vigier y Copenhague (9). Wesley también dice que la interferencia, el comportamiento de onda y los efectos cuánticos sólo pueden surgir en un sistema de muchas partículas coherentes y admite que la causa subyacente en la conducta de onda exhibida por las partículas cuánticas permanece desconocida. De hecho, como él rehúsa la existencia de un éter subcuántico, es difícil ver cómo podría llegar a una explicación causal para los movimientos de las partículas.


Entrelazamiento cuántico

La teoría cuántica predice que si una molécula se descompone en dos átomos con espines opuestos, si un átomo emite dos fotones con giros contrarios y ambos átomos o fotones se separan en direcciones opuestas, su comportamiento permanecerá correlacionado sin importar qué tan alejados estén, en una manera que no puede explicarse en términos de señales que viajan entre ellas a una velocidad igual o menor a la de la luz. Los átomos o fotones de giro correlacionado se describen mediante una función de onda única, lo que implica que constituyen un sólo sistema. Esto significa que si se realiza una medición para determinar el giro de uno de ambos sistemas (donde el resultado es impredecible pues la mensura inevitablemente perturba el conjunto), una medición simultánea en el segundo sistema calibrará el giro opuesto. Este fenómeno se denomina "no-localidad" o "entrelazamiento cuántico" (10) y en ocasiones los ensayos para verificarlo se llaman "experimentos E.P.R." en honor a Einstein, Podolsky y Rosen quienes propusieron el ensayo conceptual de origen.

Los primeros experimentos significativos de E.P.R. fueron realizados por Alain Aspect y su equipo en 1982, utilizando fotones polarizados producidos en cascadas atómicas y desde entonces se han llevado a cabo otras pruebas (11). En general se cree que estos experimentos han confirmado la existencia de conexiones "no-locales"; sin embargo, cabe señalar que todos los ensayos hasta la fecha tienen lagunas y por tanto no son concluyentes (12). Por ejemplo, el equipo de Aspect asumió que sus fotomultiplicadores detectaron fotones con una eficiencia del 100% (a diferencia de una cifra más realista del 0,2%), fallaron en publicar la información bruta y tuvieron que recurrir a una manipulación de datos altamente dudosa antes de obtener la resultante deseada (13).

Si las conexiones no-locales son verdaderas, ¿cómo deben ser interpretadas? La explicación habitual es que son un ejemplo de "acción a distancia" instantánea y no causal que no implica la transmisión de ningún tipo de energía o señal entre los sistemas "entrelazados". Una opinión causal y alternativa es que las partículas se comunican no de modo absolutamente instantáneo, sino sólo más rápido que la luz. Vigier propuso que las interacciones no locales están mediadas por el potencial cuántico llevado por ondas de fase superluminal en el éter cuántico.

Algunos escritores han sostenido que el "entrelazamiento cuántico" muestra que la "ciencia" ha demostrado el principio místico de que todo en el Universo está interconectado, lo cual es una exageración vulgar. La teoría cuántica implica que el entrelazamiento cuántico sólo ocurre en circunstancias específicas y no hace falta decir que existen interacciones incesantes entre todos los variados sistemas que conforman el Universo. Además, hay buenas razones para proponer un éter subcuántico en que las señales y fuerzas pueden propagarse más rápido que la luz, pero no de forma totalmente instantánea. Sin embargo, no se deduce necesariamente que el comportamiento de giro en dos fotones de origen común siempre deba estar correlacionado con precisión. En consecuencia, si alguna prueba de entrelazamiento futuro e infalible refutara las correlaciones no locales predichas por la teoría cuántica, no anularía la posibilidad de la transmisión superluminal de fuerza, energía o información.


Referencias

1. David Bohm, Causality and Chance in Modern Physics, London: Routledge & Kegan Paul, 1984 (1957), p. 95.

2. J.P. Wesley, "Failure of the uncertainty principle", Physics Essays, v. 9, 1996, p. 434-9; James Paul Wesley, Classical Quantum Theory, Blumberg: Benjamin Wesley, 1996, p. 152-66.

3. W.A. Scott Murray, "A heretic’s guide to modern physics: the limitation of indeterminacy", Wireless World, marzo de 1983, p. 44-6.

4. H.P. Blavatsky, La Doctrina Secreta, TUP, 1977 (1888), 1:44.
5. "The monistic idealism of A. Goswami: a theosophical appraisal", davidpratt.info.
6. Véanse "Consciousness, causality, and quantum physics", "David Bohm and the implicate order", "Jean-Pierre Vigier and the stochastic interpretation of quantum mechanics", davidpratt.info.

7. J.P. Wesley, "Classical quantum theory", Apeiron, v. 2, 1995, p. 27-32, http://redshift.vif.com; Classical Quantum Theory, p. 279-82.

8. D. Bohm y B.J. Hiley, The Undivided Universe: An ontological interpretation of quantum theory, London: Routledge, 1993, p. 53; Classical Quantum Theory, p. 241.

9. Classical Quantum Theory, p. 75-128.
10. http://en.wikipedia.org/wiki/Quantum_entanglement.
11. http://en.wikipedia.org/wiki/Bell_test_experiments.
12. http://en.wikipedia.org/wiki/Loopholes_in_Bell_test_experiments; Caroline H. Thompson, "Subtraction of 'accidentals' and the validity of Bell tests", 2006, http://arxiv.org; Caroline H. Thompson, "Rotational invariance, phase relationships and the quantum entanglement illusion", 2007, http://arxiv.org.

13. Classical Quantum Theory, p. 129-51.

Falsedades en física moderna (4 de 6)

David Pratt
Enero de 2008, febrero de 2016


Contenido:

04. Cuerdas y branas: fantasías matemáticas


04. Cuerdas y branas: fantasías matemáticas

La siguiente moda fue la "teoría de cuerdas", la cual postula que los bloques de construcción fundamentales de todas las partículas y campos, e incluso el espacio (¡y el tiempo!) son "cadenas" unidimensionales. Se dice que estos objetos hipotéticos promedian unos 10-33 cms. en longitud, pero no tienen anchura ni grosor. Presumiblemente las cuerdas existen en 10 dimensiones del espacio-tiempo (ó 26 según una versión anterior de la teoría), pero la razón por la que vemos sólo tres dimensiones se debe a que las otras se "marchitaron" o "compactaron" de manera conveniente para permanecer fuera de nuestra visión. Si se incluye la supersimetría, las cuerdas o "supercuerdas" pueden estirarse, contraerse, contonearse, vibrar y colisionar, o estar abiertas o cerradas (como bucles), y se dice que sus diversos modos de vibración corresponden a diferentes tipos de partículas. Una propiedad como la carga supuestamente resulta del movimiento en las dimensiones compactas adicionales, conocidas como espacios Calabi-Yau.

Fig. 4.1. Se piensa que las cuerdas tienen longitud, pero no anchura ni grosor. Una entidad unidimensional es una abstracción pura y obviamente no se parecería a los objetos que se muestran en este diagrama (www.ft.uam.es).

Fig. 4.2. Como se puede ver en esta animación, ¡compactar una dimensión adicional es realmente muy fácil! (http://mysite.wanadoo-members.co.uk).

El hecho de reemplazar las partículas puntuales de dimensión cero por cuerdas unidimensionales e infinitamente delgadas, y evocar seis dimensiones adicionales y "compactas" del espacio difícilmente representa un avance hacia un modelo realista. Sin embargo, la hipótesis de supercuerdas es considerada por muchos como una de las nociones más prometedores de la gravedad cuántica que pretende armonizar la teoría de relatividad general (que se centra en campos continuos) con la mecánica cuántica (focalizada en los cuantos discretos). La teoría de cuerdas no tiene soporte experimental alguno; para detectar cuerdas individuales se requeriría un acelerador de partículas al menos tan grande como nuestra galaxia. Además, las matemáticas de dicha teoría son tan complejas que nadie conoce las ecuaciones exactas e incluso las operaciones aproximadas son tan tortuosas que hasta ahora sólo se han resuelto parcialmente (1).

El físico Peter Woit escribe: "Más de veinte años en investigación intensiva realizada por miles de los mejores científicos mundiales y que producen artículos especializados por decenas de miles no han llevado a una sóla predicción experimental y comprobable para la teoría de supercuerdas" (2). Esto se debe a que dicha idea "no se refiere a una noción bien definida, sino a esperanzas no realizadas de que podría existir. Como resultado, esta es una 'teoría' que no hace predicciones, ni siquiera erróneas, y esta real ausencia de falsedad es lo que ha permitido que todo el asunto sobreviva y florezca". Woit acusa a los teóricos de cuerdas de "pensamiento grupal" y con "una falta de voluntad para evaluar honestamente los argumentos a favor y en contra de este postulado" (3).

En 1995 el gurú de supercuerdas Edward Witten desató la "segunda revolución" en este concepto al proponer que las cinco variantes de esa hipótesis -junto con la supergravedad de 11 dimensiones- formaban parte de una idea más profunda que denominó "teoría-M". Esta última (a veces llamada "la teoría antes conocida como 'cuerdas'") plantea un universo de 11 dimensiones habitado no sólo por cuerdas unidimensionales sino también por "branas" de dimensiones superiores: membranas bidimensionales, burbujas tridimensionales (brana triple) y también entidades de dimensiones superiores, incluyendo hasta nueve dimensiones/branas. Se especula que los componentes fundamentales de "espacio-tiempo" pueden ser branas-zero, es decir, puntos infinitesimales (4).

Nadie está seguro de lo que significa la "M" en la teoría ya referida. Los partidarios sugieren "membrana", "matriz", "maestro", "madre", "misterio" o "magia" y otros sugieren que es una "W" invertida para "Witten". Los críticos han propuesto que la letra significa "faltante" (missing), "turbio" (murky), "morón" o "barroso" (muddy). Otra sugerencia es "masturbación", en línea con el vínculo que hace Gell-Mann de las matemáticas con la masturbación mental. En cualquier caso y como dice Lee Smolin, la hipótesis M "no es realmente una teoría, sino la conjetura acerca de una idea en la que nos encantaría creer" (5).

Muchos teóricos de branas creen que nuestro mundo es una superficie tridimensional o brana incrustada en un espacio de dimensión superior, bautizado como "volumen", y en algunos modelos otras branas se mueven a través de este volumen y pueden interactuar con la nuestra. Para explicar la relativa debilidad de la fuerza gravitatoria, los teóricos propusieron que las cuatro fuerzas estaban confinadas a nuestra propia brana, pero que la gravedad se estaba "filtrando" en el volumen por algún mecanismo desconocido. En 1999 surgió otra propuesta: que la gravedad reside en una brana diferente a la nuestra, separada de nosotros por un espacio-tiempo pentadimensional en que la dimensión extra tiene 10-31 cms. de ancho o tal vez es infinita. En este modelo "todas las fuerzas y partículas se adhieren a nuestra brana-triple, excepto la gravedad que se concentra en la otra brana y está libre para viajar entre ellas a través del espacio-tiempo que está deformado de una manera negativa y llamada 'espacio anti-De Sitter'. Cuando nos alcanza, la gravedad es débil; en la otra brana es fuerte, a la par con las otras tres fuerzas".

Los dos científicos que originaron este modelo ahora ampliamente discutido dijeron que habían estado "muertos de miedo" porque "existía un claro temor de que quedáramos como completos tontos" (6). Es difícil ver por qué estaban tan preocupados, pues sus especulaciones absurdas no son más desagradables que el resto de las chocarrerías descerebradas que se hacen pasar por hipótesis de branas.

Las teorías de cuerdas y M, al igual que la física de partículas estándar, están ligadas a los mitos cosmológicos predominantes del Big Bang y la expansión del espacio. La teoría reinante es que en el momento del Big Bang el Universo entero, incluido el espacio mismo, vino explosivamente a la existencia y "desde la nada" en una fluctuación cuántica aleatoria. Antes de que comenzara a expandirse, medía sólo 10-33 cms. de ancho y tenía una temperatura y densidad infinitas. La principal evidencia de este cuento de hadas es que "el espacio se está expandiendo", pero nadie ha medido directamente dicho fenómeno. La visión estándar es que de hecho el espacio no se expande dentro de nuestros Sistema Solar, galaxia, grupo local galáctico o incluso nuestro aglomerado de galaxias; en cambio, sólo se amplifica entre cúmulos de galaxias donde convenientemente no hay posibilidad terrenal de realizar observaciones directas para confirmarlo o refutarlo; y puesto que el espacio es infinito, ¿cómo puede hacerse más grande? La expansión espacial es simplemente una interpretación exagerada del hecho de que la luz de galaxias distantes muestra un desplazamiento al rojo espectral. Una forma mucho más sensata para explicar el desplazamiento al rojo es que la luz pierde energía a medida que viaja a través del éter espacial (7), y recientemente los cosmólogos han "deducido" que la expansión (imaginaria) del espacio se está acelerando e inventaron la "energía oscura" que de alguna manera produce una pequeña fuerza de repulsión o "constante cosmológica" para "dilucidar" este fenómeno.


Fig. 4.3. Arriba: se presume que nuestro Universo fue creado por la colisión de dos branas, y después de expandirse y extinguirse será recreado por otra colisión de branas (http://draconem.vox.com). Debajo: una forma más deseable de colisión entre branas: dos teóricos a quienes se hace chocar sus cabezas en un esfuerzo por hacerles recobrar el sentido.

En 2001 Paul Steinhardt y Neil Turok propusieron un modelo alternativo del Big Bang conocido como "Universo cíclico", y parten de la visión de que nuestro mundo tridimensional o brana está incrustado en un espacio con una dimensión espacial extra y está separada por una distancia microscópica de una segunda brana similar. Una fuerza débil análoga a un resorte ("energía oscura") mantiene las dos branas juntas y hace que se golpeen entre sí y reboten a intervalos regulares. En la actualidad las dos branas se están separando, lo cual hace que el espacio se expanda y tras aproximadamente un billón de años la quinta dimensión comenzará a contraerse y el espacio dejará de ampliarse, pero sin tener contracción. La idea más reciente es que las dos branas nunca chocarán realmente, pero a medida que se acercan se repelen entre sí iniciando un nuevo Big Bang. Steinhardt afirma que "las nociones no probadas y exóticas" como las dimensiones y branas adicionales están ayudando a hacer que la idea de un "cosmos cíclico" sea "más comprensible y quizás incluso convincente como modelo para nuestro Universo" (8). Sin embargo, dado que el modelo comete el error elemental de tratar las abstracciones matemáticas como realidades concretas, es simplemente otro ejemplo más del absurdo arbitrario que se puede imaginar una vez que se da rienda suelta a la imaginación matemática.

Peter Woit puntualiza que los teóricos de supercuerdas pueden ser muy arrogantes y "a menudo parecen tener la opinión de que sólo los genios reales pueden trabajar en la teoría, y que cualquiera que critique tal labor es muy estúpido e ignorante para entenderlo". Incluso un entusiasta de este concepto, más bien exaltado y miembro de la facultad de Harvard señaló que quienes critican la financiación para la teoría de supercuerdas son "terroristas" y debieran ser eliminados por el ejército estadounidense (9). Paul Dirac una vez aseveró que "es más importante tener belleza en las ecuaciones de alguien que hacerlas encajar con el experimento" (10). Algunos físicos sostienen que las matemáticas de las teorías de cuerdas y M son tan hermosas que no pueden estar equivocadas, pero Woit apunta a que no son "ni bonitas ni elegantes": "Las teorías supersimétricas de diez y once dimensiones utilizadas en la actualidad son muy difíciles de escribir con precisión. Las compactaciones de seis o siete dimensiones para estas hipótesis y necesarias para intentar que se vean como el mundo real son extremadamente complejas y feas" (11).

Richard Feynman rechazó sin tapujos la teoría de cuerdas como "sin sentido" (12) y Sheldon Glashow, otro Premio Nobel, comentó: "La contemplación de las supercuerdas puede convertirse en una labor (...) para llevarse a cabo en escuelas de divinidad por futuros equivalentes de teólogos medievales (...) Por primera vez desde la Edad Oscura podemos ver cómo nuestra noble búsqueda puede terminar con la fe reemplazando a la ciencia una vez más" (13). Por su parte, Michio Kaku, entusiasta de las cuerdas, describió la idea básica de esta noción señalando que "la mente de Dios es la música que resuena a través del hiperespacio de 11 dimensiones". Woit comenta: "Algunos físicos han bromeado diciendo que, al menos en Estados Unidos, la teoría de cuerdas podría sobrevivir solicitando financiamiento al gobierno federal como una 'iniciativa basada en la fe'" (14). Los disidentes cada vez más acérrimos dentro de la comunidad de físicos acusan a los teóricos de M, los "branistas" terráqueos y los cosmólogos de cuerdas de tratar con matemáticas en lugar de la física, y en este contexto el especialista de Harvard Howard Georgi caracterizó la física teórica moderna como "teología matemática recreativa" (15).

En un esfuerzo por simplificar el modelo estándar de física de partículas, a fines de los '70 algunos investigadores propusieron que quarks y leptones podrían consistir en subcomponentes llamados "preones" (también conocidos como prequarks o subquarks) que se consideraron como partículas puntuales y según cierto modelo sólo se necesitaban dos tipos. Sin embargo, los teóricos no pudieron formular un parámetro que pudiera explicar tanto el tamaño pequeño como el peso ligero de las partículas observadas. Recientemente se han desarrollado modelos de preones más exóticos que proponen que los bosones también están compuestos de preones. Un modelo sugiere que los preones son "cintas trenzadas" de dos dimensiones, "trenzas de espacio-tiempo" o "segmentos de cinta del espacio-tiempo". Este paradigma puede vincularse a la teoría M y también a una idea alternativa conocida como "gravedad cuántica de bucle" que conserva muchas características de la relatividad general, pero representa al "espacio-tiempo" como cuantificado, es decir, compuesto de "fragmentos discretos". Una de sus supuestas ventajas es que a diferencia de la teoría de cuerdas es "independiente del fondo", lo que significa que no asume ninguna geometría y propiedades fijas de espacio y tiempo, por cuanto el número de dimensiones espaciales supuestamente podría cambiar de un momento a otro (16). 

Fig. 4.4. Este diagrama representa un "gran rebote". Según la gravedad cuántica de bucles el Universo se expande, contrae y rebota desde una región clásica del espacio-tiempo a otra a través de un puente cuántico (http://draconem.vox.com). ¡Suena como otro concepto muy prometedor para los escritores de ciencia ficción!

Cualquiera que sea el destino final para las teorías de cuerdas y M, al parecer la obsesión científica moderna con topologías abstractas, geometrías, simetrías y dimensiones adicionales continuará durante algún tiempo, pero no hay evidencia de que las dimensiones inventadas por los especialistas modernos no sean otra cosa que ficciones matemáticas; por tanto, el punto de vista expresado por H.P. Blavatsky sigue siendo válido: "el sentido común popular se rebela con justicia contra la idea de que bajo cualquier condición de cosas pueda haber más de tres dimensiones tales como longitud, anchura y grosor" (17). La Teosofía postula interminables mundos o planos interpenetrados compuestos de diferentes niveles de sustancia energética, de los cuales sólo este mundo inmediato se encuentra en nuestro rango de percepción, pero los otros planos no son dimensiones "extra"; por el contrario, los objetos y las entidades en cualquier plano se extienden en tres dimensiones, ni más ni menos (18).


Notas y referencias

1. Brian Greene, The Elegant Universe: Superstrings, hidden dimensions, and the quest for the ultimate theory, London: Vintage, 2000, p. 19.

2. Peter Woit, Not Even Wrong: The failure of string theory and the continuing challenge to unify the laws of physics, London: Vintage, 2007, p. 208.

3. Ibídem, p. 6, 9.
4. The Elegant Universe, p. 287-8, 379.
5. Lee Smolin, The Trouble with Physics: The rise of string theory, the fall of a science and what comes next, London: Allen Lane, 2006, p. 147.

6. Marguerite Holloway, "The beauty of branes", 26 de septiembre de 2005, www.sciam.com.

7. "Big bang, agujeros negros y sentido común".
8.http://feynman.princeton.edu/~steinh; http://seedmagazine.com/news/2007/07/a_cyclic_universe.php.

9. Not Even Wrong, p. 206-7, 227.
10. Citado en William C. Mitchell, Bye Bye Big Bang, Hello Reality, Carson City, NV: Cosmic Sense Books, 2002, p. 389.

11. Not Even Wrong, p. 265.
12. Citado en ibídem, p. 180.
13. Citado en Eric J. Lerner, The Big Bang Never Happened, New York: Vintage, 1992, p. 358.

14. Not Even Wrong, p. 216.
15. Citado en Richard L. Thompson, God and Science: Divine causation and the laws of nature, Alachua, FL: Govardhan Hill Publishing, 2004, p. 52.

16. The Trouble with Physics, p. 73-4, 82, 249-54; http://en.wikipedia.org/wiki/Loop_quantum_gravity; http://en.wikipedia.org/wiki/Preon.

17. H.P. Blavatsky, La Doctrina Secreta, TUP, 1977 (1888), 1:252.
18. Un escritor (Sunrise, diciembre de 1995/enero de 1996) afirmó que las dimensiones adicionales propuestas por la teoría de cuerdas están "presagiadas" por la declaración de Blavatsky en 1888 de que "seis es la representación de las seis dimensiones de todos los cuerpos" (La Doctrina Secreta, 2:591), pero notemos cómo continúa la cita: "las seis líneas que componen su forma, a saber, las cuatro que se extienden a los puntos cardinales -Norte, Sur, Este y Oeste- y las dos líneas de altura y grosor que responden al cénit y al nadir". En otras palabras, Blavatsky se refiere simplemente a las tres dimensiones ordinarias del espacio (longitud, anchura y altura/grosor). En cualquier punto de un espacio tridimensional podemos construir tres líneas o ejes que se intersectan, todos ellos en ángulo recto entre sí; cada línea se extiende en dos direcciones, de modo que hay seis direcciones en total. Si hubiera una cuarta dimensión de espacio podríamos agregar una cuarta línea en ángulo recto a todas las otras tres.

Falsedades en física moderna (3 de 6)

David Pratt
Enero de 2008, febrero de 2016


Contenido:
 
03. Delirios de simetría y unificación


03. Delirios de simetría y unificación

Para la mayoría de los físicos la "unificación" significa "simetría". A energías cada vez mayores las partículas de materia y fuerza comienzan a fusionarse, dando como resultado un mayor incremento en simetría. Supuestamente existía una proporción perfecta justo después del Big Bang, el evento mítico en que explotó "de la nada" toda la existencia, la materia y energía e incluso el espacio y el tiempo. Se cree que esta fase de perfecta simetría duró sólo 10-43 segundos durante la cual el espacio-tiempo se habría expandido 1048 veces más rápido que la luz, un evento denominado "inflatón". A medida que el Universo se enfrió, hubo una ruptura espontánea de simetría: primero la gravedad se separó como una fuerza distinta, luego la fuerza nuclear fuerte y finalmente la fuerza nuclear débil y el electromagnetismo. Se cree que las partículas originales de alta energía formaron una especie de plasma de quark-gluones, del cual eventualmente las partículas que conocemos hoy emergieron y comenzaron a combinarse.

Cada año se gastan aproximadamente 775 millones de dólares en física de alta energía en EE.UU. y una cantidad similar en Europa. El objetivo es construir aceleradores de partículas cada vez más grandes y potentes para recrear el estado general más unificado y simétrico que se piensa existió justo después del Big Bang. Esto podría llamarse "enfoque de la unificación por el martillo", es decir, "aplástese las cosas con la suficiente violencia y se fusionarán en una sóla". Existen pocas dudas de que se encontrará un número ilimitado de otras "resonancias" de corta duración a medida que aumenta la velocidad de las colisiones entre partículas, pero no hay razón para pensar que tengan una gran relevancia para comprender la estructura del mundo material. No hay una sóla teoría general y realista para explicar qué son realmente los electrones y los protones (y sus antipartículas) y es poco probable que los científicos se vuelvan más sabios al estudiar los escombros producidos al romper estas partículas a energías ultra-altas.

Fig. 3.1. El detector DELPHI en el Gran Colisionador de Electrones y Positrones (LEP, en inglés), CERN (http://home.fnal.gov/~skands).

Fig. 3.2. Trazos de partículas (rastros de pequeñas burbujas) en una cámara de burbujas al estilo antiguo. Un antiprotón entra por la parte inferior, colisiona con un protón (en reposo) y se "aniquila" dando lugar a ocho piones (http://particleadventure.org).

El camino hacia la unificación se inició en el siglo XIX. James Clerk Maxwell presumiblemente logró una comprensión unificada de la electricidad y el magnetismo y publicó sus ecuaciones sobre el tema en 1864. Aunque esto es lo que afirman los libros de texto, muchos científicos han demostrado que las ecuaciones de Maxwell no proporcionan una comprensión adecuada de las fuerzas eléctricas y magnéticas. James Wesley escribe: "La teoría de Maxwell no pasa muchas pruebas experimentales y sólo tiene un rango de validez limitado (...) Lo que sigue obstaculizando el progreso en física es la creencia fanática sobre la validez en la teoría de Maxwell para toda situación, como la convicción intolerante en la 'relatividad especial' que se pretende estar confirmada por la idea de aquél" (1). Los científicos e inventores Paulo y Alexandra Correa muestran que los errores fundamentales de Maxwell incluían las unidades dimensionales incorrectas para los campos magneto-eléctricos y la corriente, "dos errores de época que se han reproducido durante más de un siglo contribuyendo en gran medida a detener el desarrollo de la teoría de campo" (2).

De acuerdo con la tercera ley de Newton, cada acción provoca una reacción igual y opuesta, pero se han observado fuerzas electrodinámicas desequilibradas en diversos entornos experimentales; por ejemplo, fuerzas de reacción catódicas y anómalas en tubos de descarga eléctrica y aceleración anormal de iones por electrones en plasmas. Para explicar esto algunos científicos argumentan que la ley de fuerza relativista y moderna de Lorentz debe ser reemplazada por la más antigua de Ampère (3), pero también esta regla es inadecuada. Tanto Lorentz como Ampère asumieron que los circuitos eléctricos interactuantes no pueden intercambiar energía con el medio de "vacío" local (es decir, el éter). En 1969 Harold Aspden publicó una ley alternativa de electrodinámica que puede explicar toda la evidencia experimental: modifica la tercera ley electrodinámica de Maxwell para esclarecer las diferentes masas de los portadores de carga implicados (por ejemplo, iones y electrones) y permite que la energía sea transferida hacia y desde el éter circundante; así, Aspden dice que acción y reacción sólo se equilibran si se toma en cuenta el éter (4). Un problema adicional es que Lorentz asumió que la fuerza de campo se propaga a la velocidad de la luz, mientras que Ampère concebía una acción instantánea a distancia. Claramente y para mantener la causalidad las fuerzas deben propagarse a velocidades finitas, pero los Correa argumentan que la fuerza de campo -llevada por cargas etéricas- no está restringida a la velocidad de la luz y no debe confundirse con la fuerza mecánica que dos cargas materiales ejercen una sobre otra (5).

La exactitud en la ley de Aspden se demuestra mediante los reactores de descarga incandescente y anormal por pulso (PAGD, por sus siglas en inglés) desarrollados por los Correa que producen más energía de la que se requiere para activarlos mediante la excitación de oscilaciones autosuficientes en una descarga de plasma en un tubo de vacío. Con una eficiencia de rendimiento general del 483%, los dispositivos claramente extraen energía de una fuente que no existe para la física oficial, y Aspden identifica el mecanismo involucrado como "espín de éter" (6). La Oficina de Patentes de EE.UU. concedió derechos para la invención de PAGD en 1995-96, confirmando así que es posible producir energía por sobre la eficiencia mayor unitaria (over-unity).

Sin embargo, los físicos teóricos de cabecera están demasiado ocupados en sus ideas para prestar atención a los hechos experimentales verificables y los descubrimientos tecnológicos que trastornan la teoría electromagnética clásica. Como dijo Wilhelm Reich, "han abandonado la realidad para retirarse a una torre de marfil de símbolos matemáticos" (7), y creyendo que la electricidad y el magnetismo se habían unificado adecuadamente continuaron a ciegas con el siguiente paso en la "unificación" cuando, al invocar simetrías abstractas (la "teoría gauge"), presumiblemente en la década de los '70 las fuerzas electromagnéticas y nucleares débiles se mostraron como facetas de una fuerza "electrodébil" común. Como ya se mencionó, algunos investigadores no principales descartan la teoría electrodébil al calificarla de especulación matemática ociosa.

La siguiente fase fue tratar de aunar las fuerzas electrodébiles y fuertes en una "gran fuerza unificada". De acuerdo con la teoría de gran unificación (TGU) la fusión de estas dos incidencias tiene lugar en energías por encima de 1014 GeV. Las partículas portadoras de fuerza correspondientes se conocen como bosones X e Y, pero no se han observado ya que sus energías teóricas están muy lejos del alcance de cualquier acelerador.

Un pronóstico comprobable de las TGU es la lenta descomposición de los protones en piones y positrones. Sin la desintegración de los protones la teoría del Big Bang colapsa porque toda la materia y antimateria creadas en los primeros instantes del tiempo se aniquilarían entre sí y no habría exceso de protones y electrones para formar el Universo observable. Las TGU predijeron que los protones deberían tener una vida promedio de 1030 años; sin embargo, los experimentos no pudieron encontrar ningún signo de decaimiento de protones, y entonces los teóricos de TGU volvieron a sus pizarras, modificaron sus ecuaciones y demostraron que la vida útil de estos componentes era de aproximadamente 1033 años, demasiado tiempo para ser refutado por los experimentos.

Los modelos de TGU vaticinaron la existencia de partículas extremadamente masivas conocidas como "monopolos magnéticos" o "erizos" (todos los imanes conocidos son dipolos, es decir, norte y sur) y ninguno de ellos ha sido detectado, pero se ha sostenido que si fuesen reales se habrían amplificado hasta ser inexistentes por la supuesta expansión del Universo. Las TGU también anticiparon defectos topológicos en el "espacio-tiempo" como cuerdas cósmicas unidimensionales y paredes de dominio bidimensionales. No en vano, estas construcciones matemáticas abstractas jamás han sido observadas.

Para incluir la gravedad y producir una noción completamente unificada de "superfuerza", los teóricos buscan una descripción cuántica de la gravedad. Como se mencionó en la sección anterior, modelar un electrón como partícula puntual significa que la energía de los fotones virtuales que lo rodean es infinita y que el electrón tiene masa infinita, una incomodidad que se supera al aplicar el truco matemático de la renormalización. Mientras que los fotones reaccionan fuertemente con partículas cargadas sin acoplarse entre sí, se cree que los gravitones se eslabonan de forma extremadamente débil con partículas de materia, pero interactúan con vigor entre sí. Esto significa que cada partícula de materia está rodeada por una red infinitamente compleja de bucles de gravitones y cada nivel de bucle agrega un nuevo infinito al cálculo (8), todo lo cual hizo necesario dividir ambos lados de la ecuación por infinidad un número también ilimitado de veces.

Mientras tanto, la simetría fue reemplazada por la "supersimetría" (o "SUSY"-Super Symmetry) que está arraigada en el concepto de giro. La idea básica es que las partículas de materia (fermiones) y aquéllas transportadoras de fuerza (bosones) no son realmente dos tipos diferentes de partículas, sino una. Se supone que cada fermión elemental tiene un "supercompañero" bosónico con propiedades idénticas, excepto la masa y el giro. Para cada quark hay un s-quark, para cada leptón un s-leptón, para todo gluón un gluino, un fotón con un fotino, etc. Además, para el campo bosónico de Higgs es necesario postular un segundo conjunto de ámbitos homónimos con un segundo conjunto de supercompañeros.

Un problema importante es que estas nuevas partículas (conocidas como "partículas-s") no pueden tener las mismas masas que las partículas ya conocidas, pues de lo contrario ya se habrían observado y deben ser tan pesadas que no podrían haberse generado por aceleradores actuales. Esto significa que la supersimetría debe ser una proporción rota espontáneamente y se dice que ello constituye un desastre para el proyecto supersimétrico, ya que necesitaría una gran variedad de nuevas partículas y fuerzas por encima de las que provienen de la supersimetría en sí misma. Todo ello destruye completamente la capacidad de la teoría para predecir cualquier aspecto. El resultado final es que el modelo tiene al menos 105 parámetros adicionales sin determinar que no estaban en el modelo estándar (9).

La supersimetría necesitaba que el gravitón estuviera acompañado por varios tipos de partículas portadoras de gravedad llamadas gravitinos, cada una con espín de -3/2. Se pensó que éstos de alguna forma podían anular los infinitos positivos de los bucles del gravitón, pero se encontró que las cancelaciones infinitas fallaron cuando se involucraban muchos bucles (10).

Los teóricos que buscan una explicación geométrica para todas las fuerzas de la naturaleza, en lugar de sólo la gravedad, encontraron que se requerían al menos 10 dimensiones de espacio y una de tiempo, haciendo 11 en total. Hubo un impulso a la teoría por el hecho de que la descripción más económica de "supergravedad" o el efecto combinado de gravitones y gravitinos (llamada N=8) también requiriera 11 dimensiones. En 1980, Stephen Hawking declaró que había una probabilidad del 50% de que se alcanzara una "teoría del todo" para el año 2000 y N=8 era su candidato para tal idea, pero en sólo cuatro años esta noción había pasado de moda (11). Además de estar plagada de infinitos, requería espacio y tiempo para poseer un número par de dimensiones con objeto de acomodar partículas giratorias, pero incluso para los matemáticos avanzados el 11 es un número impar (12).


Referencias

1. James Paul Wesley, Classical Quantum Theory, Blumberg: Benjamin Wesley, 1996, p. 250, 285-7.

2. Paulo N. Correa y Alexandra N. Correa, "The aetherometric approach to solving the fundamental problem of magnetism", ABRI monograph AS2-15, en Experimental Aetherometry, vol. 2B, Concord: Akronos Publishing, 2006, p. 1-33 (www.aetherometry.com).

3. Thomas E. Phipps, Old Physics for New: A worldview alternative to Einstein’s relativity theory, Montreal: Apeiron, p. 108-14; Peter Graneau y Neal Graneau, Newton versus Einstein: How matter interacts with matter, New York: Carlton, 1993, capítulo 4; Paul LaViolette, Genesis of the Cosmos: The ancient science of continuous creation, Rochester, VE: Bear and Company, 2004; p. 229-31, 272.

4. Harold Aspden, Creation: The physical truth, Brighton: Book Guild, 2006, p. 159-61; Harold Aspden, "A problem in plasma science", 2005, www.aetherometry.com.

5. Paulo N. Correa y Alexandra N. Correa, "A note on the law of electrodynamics", 2005, www.aetherometry.com.

6. Paulo N. Correa y Alexandra N. Correa, "Excess energy (XS NRGTM) conversion system utilizing autogenous Pulsed Abnormal Glow Discharge (aPAGD)", 2005, www.aetherometry.com; Harold Aspden, "Power from Space: The Correa invention", Energy Science Report n° 8, Southampton: Sabberton Publications, 1996, www.aspden.org.

7. Wilhelm Reich, Ether, God and Devil; Cosmic Superimposition, New York: Farrar, Straus and Giroux, 1973, p. 82.

8. Paul Davies y John Gribbin, The Matter Myth, New York: Touchstone/Simon & Schuster, 1992, p. 244.

9. Peter Woit, Not Even Wrong: The failure of string theory and the continuing challenge to unify the laws of physics, London: Vintage, 2007, p. 172-4.

10. The Matter Myth, p. 249-50.
11. Not Even Wrong, p. 110-2.
12. The Matter Myth, p. 253.

Falsedades en física moderna (2 de 6)

David Pratt
Enero de 2008, febrero de 2016


Contenidos:

-Problemas en el paradigma vigente


Problemas en el paradigma vigente

El físico de plasma Eric Lerner señala que aunque el modelo estándar realiza predicciones válidas dentro de amplios límites de precisión, "no tiene una aplicabilidad práctica más allá de justificar la construcción de aceleradores de partículas cada vez más grandes. Así como el electromagnetismo y la teoría cuántica predicen con éxito las propiedades de los átomos, uno podría esperar que una hipótesis útil de la fuerza nuclear anticipe al menos algunas propiedades de los núcleos, pero no puede hacerlo. La física nuclear se ha dividido con la física de partículas y las propiedades nucleares se interpretan estrictamente en términos de regularidades empíricas que se encuentran al estudiar los propios núcleos" (5).

Una de las características insatisfactorias del modelo estándar a ojos de los físicos es que un total de 29 constantes -incluidas todas las masas de partículas y las fortalezas de interacciones- tienen que ser incluidas a la teoría disponible basada en la observación.

Un defecto importante del modelo estándar es que los leptones y quarks se representan como partículas sin estructura, de dimensión cero e infinitamente pequeñas, pero los puntos infinitesimales son abstracciones y no realidades concretas con propiedades medibles. Si el electrón fuera infinitamente pequeño, la fuerza electromagnética que lo rodea tendría una energía infinitamente alta ya que la fuerza eléctrica aumenta a medida que la distancia disminuye; por tanto, el electrón tendría una masa infinita. Esto es una tontería, porque un electrón tiene una masa de 9,1 x 10-28 gramos ó 511 keV (mil electronvoltios). Para sortear esta situación embarazosa los físicos usan un truco matemático: simplemente dividen cada infinito positivo por un infinito negativo y luego sustituyen los valores conocidos experimentalmente. Este dudoso procedimiento, conocido como "renormalización", fue iniciado por Richard Feynman, Julian Schwinger y Sin-Itiro Tomanaga quienes recibieron el Premio Nobel de física en 1965 por sus esfuerzos. No obstante, Feynman admitió que la renormalización era engañosa y simplemente habían "barrido los infinitos bajo la alfombra" (6).

A diferencia de la carga eléctrica y la masa, muchas otras propiedades que se asignan a las partículas no tienen un significado físico ni realista. Por ejemplo, la "carga de color" es una "característica" puramente abstracta y el "giro" cuántico no se refiere al concepto clásico de espín; los electrones con espín de -1/2 supuestamente deben rotar dos veces en 360° para volver a su posición original. Los teóricos también inventaron la noción de "isospina" la cual sostiene que si un nucleón (partícula que compone un núcleo atómico) se "rota" de una manera se convierte en protón, y si se "gira" de otra forma se convierte en neutrón, pero tal "giro" no tiene lugar en el espacio donde nos movemos, sino en un ámbito matemático imaginario.

A pesar de las afirmaciones sensacionalistas de haber descubierto los seis tipos de quarks pronosticados por la teoría moderna, los quarks individuales nunca se han observado directamente y su existencia se deduce de la correspondencia de sus propiedades esperadas con la luz, el calor y la trayectoria generada por una colisión violenta en un acelerador de partículas. Nótese que los experimentos con aceleradores producen más datos de los que podrían interpretarse, y así los supercomputadores examinan esta información en busca de los patrones que los teóricos han decidido que son importantes.

En algunas colisiones de partículas los chorros concentrados de éstas se emiten en ciertas direcciones, y esto se interpretó en el sentido de que se están golpeando quarks no observados que luego emiten partículas observables en la dirección en que se mueven. Sin embargo, la teoría de quarks ha hecho pocas predicciones que se verificaron posteriormente y fueron modificadas de modo continuo para acomodarse a las nuevas observaciones. Cuando Murray Gell-Mann propuso la teoría por primera vez en 1964 sólo había tres quarks (y tres antiquarks); desde entonces ese número ha aumentado a 36, además de 8 gluones, y ni una sóla de estas partículas supuestamente "físicas" ha sido observada en forma directa. Se teoriza que cada quark porta una carga eléctrica que mide uno o dos tercios de una carga de electrones, pero nunca se han detectado tales cargas.

La teoría de los quarks predice que los protones debieran interactuar aproximadamente un 25% con más frecuencia si sus espines se alinean en la misma dirección (paralelo) que si lo hicieran de forma opuesta (antiparalelo), pero en cambio los protones en colisión interactúan hasta cinco veces más regularmente si sus espines están alineados de forma paralela, en un orden de magnitud mayor al previsto; además, también se desvían casi tres veces más a la izquierda que a la derecha. Estos experimentos implican que la rotación es llevada por el propio protón y no por quarks hipotéticos. Lerner sugiere que los protones están mejor modelados como alguna forma de vórtice: por ejemplo, los vórtices de plasma (plasmoides) interactúan mucho más fuertemente cuando giran en la misma dirección (7). 

El modelo estándar afirma que las partículas de materia originalmente no tenían masa, a pesar de que ésta es seguramente una propiedad intrínseca de la materia. Para explicar la masa dicho paradigma invoca una partícula masiva e hipotética llamada "bosón de Higgs espín-0" que fue necesaria para hacer renormalizable la teoría electrodébil. Un científico explicó que el campo de Higgs es como un "lodo cósmico" y que parte de éste se adhiere a una partícula que viaja a través de él, lo que le da masa. Una partícula con masa exhibe la propiedad inexplicable de la inercia, lo que significa que tiende a resistir la aceleración. La mayoría de los científicos asume, sin ninguna evidencia convincente, que las partículas aceleradas irradian energía, pero por el contrario Harold Aspden argumenta que las partículas con aceleración intentan conservar su energía dando lugar a la inercia (8).

Las partículas virtuales (bosones) invocadas para explicar las cuatro fuerzas fundamentales carecen de apoyo probatorio. Las partículas que emiten o son golpeadas por ellas experimentarían una fuerza de repulsión mutua y no hay explicación de cómo los impactos de bosones podrían producir una fuerza atractiva. Hablando estrictamente y dado que las partículas portadoras de fuerza -como las de materia fundamental- se consideran de punto dimensional cero y como infinitamente pequeñas, no son más que ficciones matemáticas y por lo tanto son incapaces de impartir ninguna fuerza.

El modelo estándar predijo las masas de los bosones W y Z a energías de aproximadamente 80 ó 90 GeV antes de que se observaran estas partículas en 1983. Sin embargo, esto no significa que la teoría electrodébil sea correcta (que "unifica" el electromagnetismo y la fuerza débil). Se han medido eventos de energía en aceleradores de partículas que coinciden con las partículas pronosticadas, pero el modelo de física de éter según Harold Aspden puede explicar estas ocurrencias en términos de un patrón mucho más simple e inteligible sobre lo que sucede en el nivel subcuántico; de este modo, los umbrales de energía en que se crean las partículas de vida corta están determinados por la estructura del éter. Aspden descarta la teoría electrodébil como "una jungla de tonterías" envuelta en múltiples capas de ecuaciones (9) y su propio modelo proporciona una estimación mucho más precisa de la masa de un muón que la teoría electrodébil (10).

La fuerza nuclear débil es un tipo de "incidencia" muy curiosa. Siendo que muchos órdenes de magnitud son más débiles que la fuerza electromagnética, ésta es responsable de la radioactividad y la fusión del hidrógeno y supuestamente convierte los neutrones en protones al manipular los quarks. La fuerza nuclear fuerte entre neutrones y protones también es muy peculiar. Hasta una distancia de unos 10-15 m (1 fermi) es muy repulsiva y mantiene los nucleones separados, y entonces -por razones desconocidas- se vuelve abruptamente muy atractiva antes de decaer en forma abrupta. La teoría actual afirma que de alguna forma esto es debido a que la fuerza de gluón inter-quark se está "escapando" del nucleón, y ciertamente si los quarks no existen no se requiere una fuerza para mantenerlos unidos. En cuanto a la fuerza que mantiene a protones y neutrones juntos, algunas teorías alternativas plantean que no existen neutrones en el núcleo atómico, sino sólo cargas positivas y negativas unidas por fuerzas electrostáticas comunes (11).

Existen serios problemas con la teoría de que las partículas "virtuales" aparecen continuamente de la nada y luego desaparecen tan rápido que llegan a ser inobservables. Cada uno de estos sucesos transgrede la ley de conservación de la energía, pero los físicos hacen la vista gorda a esto ya que sólo dura una fracción de segundo, lo que supuestamente está permitido por el "principio de incertidumbre" de Heisenberg; sin embargo, en un momento determinado hay una cantidad innumerable de tales partículas, por cuanto sin importar la existencia breve de cada una esto equivale a un préstamo permanente de energía infinita. Además, de acuerdo con la teoría de la relatividad general toda esta energía debiera convertir al Universo en una pequeña bola, lo que obviamente no sucede. Los experimentos confirman que los pares detectables de electrón-positrón rodean cada partícula cargada y la teoría cuántica no explica de dónde vienen o a dónde van; las ecuaciones simplemente contienen un "operador de creación" y otro de "aniquilación". De manera realista y dado que nada viene de la nada, debe existir un nivel de energía subcuántica no incluido en la física estándar, fuera del cual las partículas físicas se cristalizan y vuelven a ser disueltas. Richard Feynman inventó la idea de que un positrón (anti-electrón) era realmente un electrón que viajaba hacia atrás en el tiempo, y así es sorprendente que se tome en serio tal estupidez mientras que se descarta cualquier alusión a un medio etérico.

Otro tema controvertido es el estatus correspondiente a los neutrinos, de los cuales se dice que no tienen carga y pasan a través de la materia ordinaria casi sin perturbaciones a prácticamente la velocidad de la luz, haciéndolos en extremo difíciles de detectar. Vienen en tres tipos o "sabores" y se piensa que están creados por ciertos tipos de descomposición radioactiva, por reacciones nucleares -como en los reactores o las que se dice que ocurren en estrellas- o por el bombardeo de átomos por rayos cósmicos. Asimismo, se cree que la mayoría de los neutrinos que pasan a través de la Tierra proviene del Sol; supuestamente más de 50 billones de neutrinos de electrones solares pasan por el cuerpo humano cada segundo y se necesitaría aproximadamente un año-luz de plomo en grosor para bloquear la mitad de ellos. Durante décadas los detectores sólo han observado cerca de un tercio del número previsto de neutrinos solares y este problema se "resolvió" asumiendo que estos componentes tienen una masa minúscula y pueden cambiar el sabor; por alguna razón dos tercios de los neutrinos de electrones emitidos por el Sol se convierten en neutrinos muón o tau, los cuales no se detectan.

El neutrino fue postulado por primera vez en 1930 cuando se descubrió que, tomando en cuenta la teoría de la relatividad, la desintegración beta (descomposición de un neutrón en un protón y electrón) parecía transgredir la conservación de energía, pero Wolfgang Pauli salvó esta brecha inventando el neutrino, una partícula que se emitiría junto con cada electrón y portadora de energía e impulso (hoy se afirma que la partícula emitida es un antineutrino). W.A. Scott Murray describió esto como "una sugerencia ad hoc inverosímil diseñada para hacer que los hechos experimentales concuerden con la teoría y no terminen siendo descartados como una estafa" (12). Por su parte, Aspden llama al neutrino "un invento de la imaginación para hacer que los libros se equilibren" y dice que simplemente denota "la capacidad del éter para absorber energía y momentum" (13) y varios otros científicos también han cuestionado si realmente existen los neutrinos (14).

Fig. 2.3. Cúpula del Super-Kamiokande en Japón, el observatorio de neutrinos más grande del mundo. Situado a 2.700 mts. bajo tierra, se compone de un tanque con 42 mts. de alto y 39 de diámetro que contiene 32.000 toneladas de agua ultra-pura y visionada por unos 13.000 tubos fotomultiplicadores sensibles. Su construcción costó unos 100 millones de dólares (http://neutrino.phys.washington.edu).

Al igual que los experimentos con aceleradores de partículas, la detección de neutrinos ha llegado a ser una gran industria y se han otorgado varios premios Nobel a científicos que trabajan en ese campo. Sin embargo, lo que tales experimentos detectan en realidad no son neutrinos en sí, sino los efectos de éstos en la energía y el momentum de una partícula-objetivo o las partículas en las que se cree se transformaron los neutrinos. Los rayos cósmicos, los gamma y las partículas neutras como el pión, kaón o neutrón pueden imitar las señales de neutrino deseadas y es cuestionable si dichos experimentos se han protegido adecuadamente contra ellos. A menudo se cita la detección de neutrinos de la supernova "1987" como evidencia convincente de que existen estos componentes, pero si se hallaron neutrinos genuinos de dicha supernova deberíamos percibir a diario eventos de neutrinos del Sol por miles, mientras que sólo se observan unas pocas docenas (15). Los resultados irrepetibles obtenidos por los experimentos para encontrar neutrinos, las prácticas dudosas en la manipulación de datos y el frecuente fracaso en la publicación de todos los hechos no procesados han sido objeto de fuertes críticas (16).

El electrón y el protón son partículas estables, y el último es 1.836 veces más masivo que el primero. Sus antipartículas (positrón y antiprotón) también son estables y estas cuatro partículas son posiblemente las únicas que tienen alguna importancia. Con respecto a los neutrones, nunca se han observado directamente dentro del núcleo atómico, pero como a veces aparecen como producto de desintegración se supone que existen allí. Además, se piensa que dentro del núcleo se encuentran estables, mientras que fuera de él se ha observado que se descomponen en un protón y un electrón (y un "antineutrino") en aproximadamente 15 minutos. La teoría del quark no tiene explicación para esto y además es ilógico suponer que un neutrón se descomponga en un protón y un electrón pues se supone que tanto el neutrón como el protón consisten en tres quarks, mientras se dice que el electrón es una partícula elemental que no contiene quarks.

El proceso divisorio de un neutrón en un protón y electrón condujo a la hipótesis original de que en realidad un neutrón es el estado unitario entre un protón y un electrón. Esta idea se abandonó posteriormente porque parecía incapaz de explicar ciertas propiedades de los neutrones, aunque algunos científicos han argumentado que estas dificultades pueden superarse (17). Aspden sostiene que un núcleo atómico podría desprender protones y partículas beta negativas (electrones) en una relación pareada altamente energética que se ha confundido con un "neutrón inestable". También dice que además de las cargas etéricas los núcleos atómicos contienen sólo protones, antiprotones, electrones y positrones. El "neutrón" podría ser realmente un antiprotón envuelto por un campo de leptones -incluido un positrón-, una teoría que puede explicar la duración exacta, la masa y el momento magnético del neutrón (18).

En conclusión, existe una clara posibilidad de que termine descartándose una buena parte del modelo estándar para la física de partículas.


Referencias

1. http://en.wikipedia.org/wiki/Standard_Model; http://en.wikipedia.org/wiki/Fundamental_interactions.

2. Véase "Espacio, tiempo y relatividad".
3. en.wikipedia.org/wiki/Higgs_boson; http://press.web.cern.ch/press/PressReleases/Releases2012/PR17.12E.html; David Dilworth, "Did CERN find a Higgs? Well not quite. But they probably found a new particle and extended their funding for years", julio de 2012, cosmologyscience.com.

4. Chuck Bednar, "God particle findings were inconclusive, according to new analysis", 7 de noviembre de 2014, redorbit.com.

5. Eric J. Lerner, The Big Bang Never Happened, New York: Vintage, 1992, p. 346-7.

6. Citado en D.L. Hotson, "Dirac’s equation and the sea of negative energy", parte 1, Infinite Energy, v. 43, 2002, p. 43-62 (p. 45).

7. The Big Bang Never Happened, p. 347-8; Paul LaViolette, Genesis of the Cosmos: The ancient science of continuous creation, Rochester, VE: Bear and Company, 2004, p. 311.

8. Harold Aspden, "Cosmic mud or cosmic muddle?", 2000, www.energyscience.org.uk; Harold Aspden, Creation: The physical truth, Brighton: Book Guild, 2006, p. 90-2.

9. Harold Aspden, "What is a 'supergraviton'?", 1997; "Photons, bosons and the Weinberg angle", 1997; "Why Higgs?", 2000, www.energyscience.org.uk.

10. Harold Aspden, Aether Science Papers, Southampton: Sabberton Publications, 1996, p. 58.

11. Creation, p. 39-40, 116.
12. W.A. Scott Murray, "A heretic’s guide to modern physics: haziness and its applications", Wireless World, abril de 1983, p. 60-2.

13. Harold Aspden, "What is a neutrino?", 1998, www.energyscience.org.uk; Creation, p. 179-81.

14. Ricardo L. Carezani, "Storm in Physics: Autodynamics", Society for the Advancement of Autodynamics, 2005, capítulos 4, 13; Society for the Advancement of Autodynamics, www.autodynamicsuk.org, www.autodynamics.org; Paulo N. Correa y Alexandra N. Correa, "To be done with (an) orgonomists", 2001, "What is dark energy?", 2004, www.aetherometry.com; David L. Bergman, "Fine-structure properties of the electron, proton and neutron", 2006, www.commonsensescience.org; Quantum Aether Dynamics Institute, "Atomic structure", www.16pi2.com; Erich Bagge, World and Antiworld as Physical Reality: Spherical shell elementary particles, Frankfurt am Main: Haag + Herchen, 1994, p. 109-42.

15. Ricardo L. Carezani, "SN 1987 A and the neutrino", www.autodynamicsuk.org, www.autodynamics.org.

16. "Neutrinos at Fermi Lab", www.autodynamicsuk.org; "Super-Kamiokande: super-proof for neutrino non-existence", www.autodynamicsuk.org.

17. Bergman, "Fine-structure properties of the electron, proton and neutron", www.commonsensescience.org; Quantum Aether Dynamics Institute, "Neutron", www.16pi2.com; Bagge, World and Antiworld as Physical Reality, p. 262-70; R.M. Santilli, Ethical Probe on Einstein’s Followers in the U.S.A., Newtonville, MA: Alpha Publishing, 1984, p. 114-8.

18. Creation, p. 148-9; Harold Aspden, "The theoretical nature of the neutron and the deuteron", Hadronic Journal, v. 9, 1986, p. 129-36, www.energyscience.org.uk.