Mostrando entradas con la etiqueta Mala ciencia. Mostrar todas las entradas
Mostrando entradas con la etiqueta Mala ciencia. Mostrar todas las entradas

13 de mayo de 2024

El debate sobre los experimentos Ganzfeld

Chris Carter, "Science and Psychic Phenomena" (2007), capítulo 7


[N.del T.: el efecto Ganzfeld (del alemán "campo homogeneizado") es un recurso en parapsicología que sirve para comprobar facultades telepáticas y extrasensoriales. Con este objetivo, es necesario suprimir los sentidos físicos de una persona para facilitarle el reconocimiento de información emitida desde otras fuentes, por lo común imágenes. De esta manera, cuando el individuo es expuesto a un campo de estímulo uniforme, el cerebro amplifica el ruido neuronal para encontrar símbolos audiovisuales faltantes, y según los parapsicólogos, es esto lo que permitiría detectar ondas telepáticas de otras personas, aunque también puede generar ciertos tipos de alucinaciones].

El psicólogo Ray Hyman, por mucho tiempo critico de la indagatoria psi y miembro fundador del CSICOP [Comité para la Investigación Científica de Afirmaciones Paranormales], no estuvo de acuerdo con las inferencias de Charles Honorton y llevó a cabo su propio metanálisis sobre los datos Ganzfeld. Este hecho generó un debate, cuyos inicios se publicaron en dos números completos del Journal of Parapsychology en 1985 y 1986.

Hyman afirmaba que era demasiado alto el cálculo del 55% de estudios significativos, y adscribiendo una serie de escollos con las 42 pruebas, en vista de que algunos investigadores utilizaron más de una medida para determinar un resultado exitoso (análisis múltiple); peor aún, existía la posibilidad de que ciertos pesquisantes hubieran “regateado”, aplicando diversos criterios a los datos hasta encontrar un parámetro que fuera “indicativo”. También planteó la hipótesis de un sesgo favorable para llegar a resultados satisfactorios.

Este es el llamado problema del “archivador”, es decir, cuando tienden a reportarse los experimentos con resultantes propicias, mientras que las fallas simplemente languidecen en cajones llenos de informes. Finalmente, Hyman presentó los resultados de un análisis estadístico que aspiraba a mostrar una relación entre el número de errores en cada estudio y el éxito reportado, sosteniendo que los ensayos más incompletos solían informar las puntuaciones más altas. Al ajustar todos esos factores, Hyman concluyó que la tasa de éxito real estaba cerca de lo predicho por el azar.

Honorton aceptó la primera de estas críticas, y concedió que el análisis múltiple era en realidad un contratiempo. En respuesta, limitó su análisis sólo a aquellas 28 pruebas que genuinamente reflejaban las tasas de acierto obtenidas para calcular el porcentaje de logros directos, definiendo un resultado exitoso sólo como aquel donde el sujeto clasificaba al objetivo en primer lugar. Utilizando esta medida uniforme, 23 de las 28 instancias obtuvieron productos superiores a la expectativa aleatoria, y el 43% del total de ensayos arrojó frutos significativos. El promedio general de aciertos fue del 35% (25% esperado por casualidad) y el intervalo de confianza del 95% osciló entre 28 y 43%. Además, los resquicios de que esto ocurriera sólo por casualidad eran de mil millones a uno (1).

Honorton evidenció que estas resultantes positivas no se debieron sólo a uno o dos laboratorios, pues los 28 experimentos provinieron de diez recintos diferentes: uno dirigido por el psicólogo británico Carl Sargent, que contribuyó con nueve; el de Honorton con cinco; otros dos que realizaron tres cada uno; dos instalaciones replicaron dos cada una, y las cuatro restantes contribuyeron con un estudio por separado. Así, la mitad de los controles vino sólo de dos laboratorios, siendo uno de ellos el de Honorton.

En consecuencia, Charles analizó los productos de cada laboratorio y encontró que eran significativos para seis de los diez establecimientos. Incluso si proscribiéramos los resultados de las dos instalaciones más prolíficas, las probabilidades contra el azar seguían siendo de 10.000 a uno (2). Por lo tanto, las respuestas positivas no podían explicarse mediante análisis múltiple, o como efecto de que sólo uno o dos lugares contribuyeran con la mayor parte de los estudios. Luego Honorton abordó las otras críticas de Hyman.


Informes selectivos

Durante mucho tiempo se ha venido creyendo que en todos los campos puede haber un sesgo a favor para reportar y publicar estudios con desenlaces positivos. Dada la naturaleza controvertida de su tema, los parapsicólogos estuvieron entre los primeros en abordar esta dificultad, y en 1975 la Asociación de Parapsicología adoptó una política contraria a la retención de datos no significativos, siendo éste un hecho único entre las disciplinas científicas. Además, en 1980 Susan Blackmore realizó una encuesta entre parapsicólogos para comprobar si había un sesgo a favor de notificar resultados exitosos de Ganzfeld, y concluyó que no había ninguno. Descubrió sólo diecinueve estudios homónimos completos, pero no declarados; siete de ellos (37%) tuvieron secuelas significativamente positivas, una proporción muy similar a aquélla de los testeos en el metanálisis que lograron frutos llamativos de modo independiente (43%) (3).

Aún así y como en teoría no es posible saber cuántos ensayos no reportados pueden permanecer en cajones de archivos, Honorton utilizó una técnica de metanálisis con objeto de calcular cuántos experimentos Ganzfeld desconocidos y no significativos se necesitarían para abreviar las resultantes informadas a niveles de probabilidad. Acerca de las 28 pruebas Ganzfeld sobre impacto directo, se requerirían 423 no reportadas y no significativas respecto a una proporción de ensayos sin informar, para una tasa aproximativa de 15 a 1 de estudios divulgados versus desconocidos. Puesto que una sesión Ganzfeld comporta más de una hora y considerando el bajo número de laboratorios equipados en el mundo para esta clase de experimentos, no es sorprendente que Hyman coincidiera con Honorton en que los informes selectivos no podían explicar la importancia de los resultados (4).


Defectos del estudio

Una de las críticas más frecuentes a la investigación psi es que la mayoría de controles tiene errores metodológicos. Se afirma que esas instancias mal diseñadas y ejecutadas explican muchos resultados positivos; por ende, si se descartaran dichos ensayos, las secuelas favorables desaparecerían.

Afortunadamente, el metanálisis proporciona una técnica para determinar en qué medida los traspiés metodológicos pueden dar cuenta de desenlaces satisfactorios. Cada estudio se categoriza según el grado de presencia de un defecto concreto, y luego estas calificaciones se correlacionan con los productos del control. De esta manera, las congruencias positivas más grandes entre la presencia de fallas y resultados exitosos respaldarían el reclamo de que aquéllos se deben simplemente a fallas del estudio. Uno de los engaños más graves en la investigación psi es la fuga sensorial, en que un sujeto es capaz de adquirir conocimiento del objetivo por medio de sentidos ordinarios, ya sea sin percatarse o recurriendo a trampas intencionales.


Fuga sensorial

A través de privación sensoria y habitáculos acústicamente sellados, el diseño Ganzfeld tiende a minimizar cualquier oportunidad de fuga sensorial del objetivo. Sin embargo, los críticos plantearon que si los experimentadores que tratan con sujetos conocen el objetivo, de alguna forma pueden sesgar la elección de éstos últimos. Un estudio contenía ese lapsus, pero en realidad los sujetos obtuvieron puntuaciones levemente por debajo de la probabilidad. Otra opción de fuga sensorial es si la imagen física usada por el remitente se incluye en el conjunto de imágenes entregadas al receptor para que las evalúe, y así tal vez éste pueda darse cuenta consciente o inconscientemente de que la figura meta haya sido manipulada. Esto se conoce como "hipótesis de los dedos grasientos", y aunque los controles Ganzfeld contemporáneos utilizan grupos duplicados de objetivos, no fue así en algunos de los primeros estudios.

Hyman y Honorton concluyeron que no existía un vínculo sistemático entre las fallas que posiblemente condujeran a una fuga sensorial y la resultante del ensayo. Charles también informó que, incluso si se descartaran los testeos que no emplearon conjuntos de objetivos duplicados, las respuestas seguían siendo muy significativas, con probabilidades de aproximadamente 100.000 a uno (5).


Aleatorización inadecuada

Luego Hyman concentró sus reparos en lo que, según él, constituían errores en los procedimientos aleatorios. Esta práctica es importante en los experimentos Ganzfeld, e implica dos aspectos: a) cada objetivo potencial debe tener las mismas posibilidades de ser seleccionado, y b) cada objetivo no debe aparecer en una posición predecible, cuando se muestra al sujeto el conjunto de cuatro imágenes-objetivo al final de la sesión.

Hyman aseguró descubrir una relación importante entre los defectos de la aleatorización y los desenlaces exitosos, mientras Honorton dijo que no existía tal vínculo. La fuente del disenso se remonta a definiciones contradictorias de equívocos, y quizá en esta parte del análisis se adscribiría a diferencias de sesgo. Después de todo, Hyman es un escéptico confirmado desde hace mucho tiempo, y Honorton había estado efectuando investigaciones psi durante décadas.

Sin embargo, ninguno de los diez participantes en el debate publicado en 1986 aprobó las conclusiones de Hyman, mientras que cuatro no parapsicólogos -dos estadísticos y dos psicólogos- convergieron explícitamente con el parámetro de Honorton (6). David Saunders, estadístico en psicología, fue uno de los primeros profesionales independientes en abordar el estudio de fallas por Hyman, y concluyó que "todo el análisis no tiene sentido" (7).

No obstante y si bien muchos han argumentado históricamente que los equívocos de proceso pueden explicar resultados positivos en controles psi, el análisis por Hyman fue pionero en cuantificar realmente el nexo entre errores y respuestas significativas. En cualquier caso, él continuó insistiendo en que había vínculos entre la aleatorización inadecuada y los frutos del estudio, pero admitía que "la base de datos actual no respalda ninguna conclusión firme" entre ambos aspectos (8).

Como se mencionó anteriormente, diez críticos y partidarios adicionales de la parapsicología añadieron comentarios sobre el debate. En su mayoría, los críticos no estaban convencidos, pero hubo una salvedad notable: el matemático inglés Christopher Scott -y conocido escéptico- describió el razonamiento de Honorton como "el argumento más convincente sobre la existencia de PES [Percepción Extra-Sensorial] que he encontrado hasta ahora" (9).


El "Comunicado Conjunto"

Quizás el evento más atípico en la siguiente ronda del debate fue un "comunicado" del que eran coautores Hyman y Honorton. En lugar de seguir con la discusión, crearon un apéndice que comenzaba enumerando sus diferencias y puntos de acercamiento: "Estamos de acuerdo en que existe un efecto general significativo en esta base de datos, que no puede explicarse razonablemente por informes selectivos o análisis múltiples. Seguimos discrepando sobre el nivel en que el resultado constituye evidencia de psi, pero pensamos que el veredicto final aguarda la iniciativa de experimentos futuros realizados por una gama más amplia de investigadores, y con arreglo a estándares más estrictos" (10).

Luego describieron esos parámetros imprescindibles con que deberían ejecutarse futuros testeos Ganzfeld. Estos incluían férreas precauciones de seguridad contra fugas sensoriales y posibles fraudes, pruebas requeridas de los métodos de aleatorización, y la insistencia en documentar detalladamente los procedimientos experimentales, las técnicas aleatorias y el estado del control, ya sea que se destinara a confirmar hallazgos previos o investigar condiciones nuevas. Uno de los colegas parapsicólogos de Honorton señaló que “[Charles] estaba especialmente interesado en lograr que Hyman aceptara públicamente dichos criterios, pues los pseudoescépticos son conocidos por cambiar las reglas del juego tras cumplirse todas las objeciones anteriores, y cuando los nuevos experimentos continúan proporcionando resultados positivos" (11).

En este punto cabe subrayar lo extraordinario de la discusión, ya que marcó una gran diferencia en los intercambios retóricos habituales entre los parapsicólogos y sus críticos. Poco antes de las primeras rondas, Hyman escribió: “El nivel del debate en los últimos 130 años ha sido una vergüenza para todos quienes creen que los académicos y científicos se adhieren a estándares de racionalidad y juego limpio” (12).

Tras publicarse el anuncio conjunto, el psicólogo Robert Rosenthal señaló: “Los parapsicólogos y científicos en general mantienen una enorme deuda de gratitud con Ray Hyman y Charles Honorton por su cuidadoso y extenso trabajo analítico y meta-analítico sobre el problema Ganzfeld. Su intercambio generó una relación de claroscuros especialmente llamativa, y muchas de las cuestiones importantes ahora se han puesto de relieve con audacia" (13).

También es destacable el final de la segunda ronda mediante dicho comunicado, pues marcó la primera vez que un parapsicólogo y un crítico colaboraron en una declaración de esta índole. Ahora se preparaba el escenario para ver si futuros ensayos Ganzfeld -practicados de acuerdo con estándares más rigurosos- continuarían proporcionando efectos indicativos. Pero antes que se diera a conocer el producto de los nuevos experimentos, ocurrió un incidente muy extraño.


El informe del Consejo Nacional de Investigaciones [EE.UU.]

“Quizás nuestros corolarios más sólidos se encuentren en el área de la parapsicología”, manifestó el orador leyendo su discurso preparado. Los asistentes permanecían en silencio cuando aquél hizo una pausa para lograr un ligero efecto dramático, y prosiguió: "El comité no encuentra ninguna justificación científica en las investigaciones realizadas durante 130 años para la existencia de fenómenos parapsicológicos" (14).

Los extractos corresponden a la perorata de John Swets en diciembre de 1987, ante los periodistas que repletaban el lugar. Swets era presidente de un comité creado por el Consejo Nacional de Investigación (NRC), cuyo cometido era evaluar diversas técnicas de mejoramiento de desempeño humano, y en las que estaba interesado el ejército norteamericano. Así, se organizó la conferencia para informar las secuelas de ese proyecto de dos años y que costó casi medio millón de dólares.

Tres años antes, el Instituto de Investigación del Ejército [Army Research Institute o ARI] pidió a dicho Consejo -una extensión de la Academia Nacional de Ciencias- que abordara fenómenos como el aprendizaje durante el sueño, visualizaciones guiadas, meditación, telepatía y clarividencia. Con vistas a garantizar equidad, el ARI generalmente nombraba a un observador imparcial a cargo de monitorear los contratos de investigación, pero en este caso designaron al doctor George Lawrence, un psicólogo militar civil con historial opuesto a la investigación psi. Por ejemplo, junto con Ray Hyman tuvo un rol decisivo al suprimir un proyecto de parapsicología en Stanford, financiado por el Pentágono en 1972 (15), y cuando el Consejo empezó a formar subcomités para explorar las diferentes áreas, señalaron a Hyman para comandar el grupo de parapsicología. En el momento en que Hyman ocupaba ese cargo, era además miembro activo del consejo ejecutivo del CSICOP.

Los únicos estudios psi evaluados en el reporte fueron aquéllos de Ganzfeld, y la apreciación del NRC se fundamentaba en el metanálisis por Hyman. Recordemos que dos años antes coincidía con Honorton en que “hay un efecto global significativo en esta base de datos que no puede explicarse razonablemente por informes selectivos o análisis múltiples”, y que “varios investigadores produjeron resultados significativos” (16); pues bien, ninguno de esos puntos se menciona en dicha reseña. Durante la conferencia de prensa, Hyman anunciaba que "la mala calidad en la investigación psi fue una sorpresa para todos nosotros, y creíamos que el trabajo terminaría siendo mejor" (17).

El comité del NRC solicitó informes de especialistas externos, pero en parapsicología no se consultó a ningún profesional del área; en cambio, encargaron un reporte al psicólogo James Alcock, quien como Hyman, también es miembro del CSICOP y ampliamente conocido por sus libros y artículos que atacan los trabajos en parapsicología.

También se pidió un dictamen al psicólogo Robert Rosenthal (Universidad de Harvard), mundialmente célebre en evaluar afirmaciones de estudios controvertidos en ciencias sociales, y junto con Monica Harris, preparó un documento sobre la calidad de los exámenes en cinco áreas abordadas por el comité. Refutando las opiniones de Hyman ante la prensa, escribieron que de esos cinco ámbitos “sólo los estudios Ganzfeld en PES cumplen con los requisitos básicos de un diseño experimental sólido" (18), y concluyeron: "La situación para el dominio de Ganzfeld parece razonablemente clara. Creemos que sería inverosímil considerar los datos nulos [esto es, inferir que los resultados se deben al azar] dada la p [probabilidad] combinada de estos 28 estudios (...). Cuando la tasa de precisión esperada bajo el valor nulo es 1/4, estimamos que el promedio obtenido es aproximadamente 1/3" (19).

En otras palabras, la pareja declaró que los resultados Ganzfeld no eran azarosos, y el índice de exactitud rondaba el 33%, cuando se esperaría un 25 si la "suerte" fuera el único motivo. Increíblemente, John Swets llamó a Rosenthal y le exigió que retirara el apartado que era favorable a la parapsicología, mas el autor se negó. En el relatorio final de la NRC, dicho artículo se cita sólo en las diversas secciones que tratan temas no relacionados con parapsicología, y tampoco se menciona nada en la parte que trata sobre ese tópico.

El psicólogo John Palmer, Charles Honorton y Jessica Utts, profesora de estadística en la Universidad de California (Davis), concibieron un rebatimiento amplio y detallado contra el informe del comité. Este escrito llevó a la senadora estadounidense Claiborne Pell a solicitar que la Oficina de Evaluación Tecnológica del Congreso emprendiera una indagatoria con un grupo más equilibrado. Su iniciativa dio lugar a un taller celebrado el 30 de septiembre de 1988, que reunió a parapsicólogos, críticos y expertos en campos vinculantes. El reporte de la instancia concluyó que la parapsicología necesita "una audiencia más justa en un espectro más amplio de la comunidad científica, para que los factores emocionales no impidan el análisis objetivo de resultados experimentales" (20).

Mucho más revelador fue un artículo escrito al año siguiente -como desafío al NRC- por el coronel retirado John Alexander, quien formó parte de la investigación castrense sobre varios temas perquiridos en el comité:

"Me desempeñaba como informador a los miembros de la junta mientras investigaron el Informe EHP [Enhancing Human Performance]. También fui encargado de Tecnología Humana Avanzada para el Comando de Seguridad e Inteligencia del Ejército (1982-1984), y durante la preparación de ese documento dirigí la Oficina de Conceptos de Sistemas Avanzados, en el Comando de Laboratorio del Ejército estadounidense. Creo tener buenas aptitudes para revisar las conclusiones del comité. Muchas organizaciones del Ejército ya venían experimentando con diversas técnicas para mejorar el desempeño humano, y con frecuencia habían visto resultantes muy llamativas (...). Varias personas en la alta dirección del Ejército consideraron que contratar un organismo tan prestigioso como la NRC (...) proporcionaría un informe creíble en que se podría basar la administración de fondos públicos para los cometidos de investigación militar, en el campo de la mejora del desempeño humano.

La tarea de administrar el contrato recayó en la ARI. Fueron ellos quienes propusieron que el doctor George Lawrence, psicólogo civil del Ejército con experiencia en biorretroalimentación, fuera Representante Técnico de Oficiales de Contratación (COTR), es decir, un observador imparcial que no participa en el estudio y garantiza que sea técnicamente sólido.

Desafortunadamente (...) Lawrence estaba lejos de ser ecuánime, pues tenía prontuarios por su postura firme y pública contra muchos ámbitos de análisis. De hecho, en una asignación previa con la Agencia de Proyectos de Investigación Avanzada de Defensa (DARPA), Lawrence tuvo un rol gravitante en el bloqueo de fondos para investigación psíquica (psi) en el Instituto de Stanford (SRI) (...). Para lograrlo, Lawrence había acudido al SRI con Ray Hyman, un conocido crítico de los fenómenos psi (...). Ambos terminaron efectivamente con la financiación de DARPA para el SRI, que era la única pesquisa patrocinada por el gobierno en ese momento.

Antes de organizarse la junta directiva del EHP, Lawrence me dijo en 1984 que trataba de incorporar a Hyman al mismo grupo, y lo consiguió. El problema respecto a la credibilidad del Informe es que Ray era la única persona asignada que demostró cierta familiaridad con la literatura de investigación parapsicológica, y desde el principio se conocía su postura incrédula. Hyman es miembro fundador del CSICOP, el autoproclamado 'grupo de vigilancia' que se opone a los estudios parapsicológicos (...)".

"Por lo anterior, cuestioné desde el inicio los inconvenientes de 'sesgo' y 'objetividad' aplicables a la génesis del comité. Parece claro que Lawrence, y luego Hyman y James Alcock (otro fundador del CSICOP y crítico de estos estudios) siguieron un camino intencional para desprestigiar el trabajo en parapsicología (...). A lo largo de la sección correspondiente del Informe EHP, la junta se refirió sólo a aquellos artículos publicados que respaldaban su posición, e ignoró el material favorable (...)".

"Entonces, ¿qué debemos colegir sobre el reporte EHP? (...). Primero, es muy relevante que un conjunto particular de desacreditadores no pudo encontrar ninguna 'prueba inconcusa' ni 'alternativa plausible' a la hipótesis psi (...). Segundo, deberíamos preocuparnos por que el tribunal científico más alto del país operó de manera tan parcial y dura, y no parece haber ningún canal para apelar o revisar su trabajo. ¿Y a qué le temen? ¿Es tan 'urgente' amparar la ortodoxia científica rehusando pruebas y suprimiendo opiniones contrarias?" (21).


Los estudios Autoganzfeld

Poco después de aparecer el relatorio por la Oficina del Congreso, se presentaron las secuelas de nuevos experimentos Ganzfeld que cumplían a cabalidad con los estándares rígidos descritos en el Comunicado Adjunto. Desde 1983, Honorton y sus colegas trabajaron en una nueva serie de testeos controlados por computadora o "Autoganzfeld", la cual continuó hasta 1989 cuando la ausencia de fondos obligó a cerrar el laboratorio de Honorton.

Los principales cambios fueron el uso de ordenadores para regular los ensayos, y la introducción de cámaras de video en circuito cerrado para presentar fragmentos de películas breves e imágenes estáticas como objetivos. Durante la sesión, ni el experimentador ni el receptor podían monitorear los eventos al interior de la sala del emisor, que también estaba aislada acústicamente y protegida contra influjos electromagnéticos.

Los objetivos dinámicos consistieron en ochenta fotografías y ochenta videos cortos, incluyendo pistas de sonido, todos grabados en cinta de video. Puesto que el metanálisis de los experimentos previos reveló un nexo positivo entre la tasa de aciertos y el uso de estos blancos, los diseñadores del Autoganzfeld deseaban probar si el empleo de aquéllos generaría mayores índices de éxito.

Los controles automatizados y recintos herméticos estaban concebidos para neutralizar fugas sensoriales por accidente o trampa intencional. Además, se incluyó a dos magos de escenografía que se especializaban en fingir aptitudes psi, con miras a comprobar si el Autoganzfeld tenía susceptibilidad a engaños o fraudes. Uno de ellos era Ford Kross, funcionario de la Asociación de Artistas Psíquicos, quien declaró por escrito: "En mi capacidad profesional como mentalista, revisé el sistema automatizado Ganzfeld en los Psychophysical Research Laboratories [PRL], y descubrí que proporciona una excelente seguridad contra el engaño de los sujetos" (22). El otro mago fue Daryl Bem, psicólogo de la Universidad de Cornell, quien convergió con las apreciaciones de su homólogo sobre los procedimientos de seguridad, y colaboró con Honorton en un artículo atañente a las experiencias Ganzfeld de 1994 (23). Bem ha ejercido como mentalista durante muchos años y también forma parte de la misma Asociación que Kross.


Resultados

En los seis años del Autoganzfeld participaron 100 hombres y 140 mujeres como receptores en 354 sesiones, con edades comprendidas entre 17 y 74 años, mientras que los estudios fueron conducidos por ocho encargados diferentes, incluyendo a Honorton.

Durante las once pruebas que totalizaron dicho número de sesiones, se obtuvieron 122 aciertos directos para una tasa de éxito global de 34%, cuando se esperaba un 25% por casualidad; así, estas secuelas son casi idénticas al promedio del 35% en el metanálisis de 1985. El nuevo intervalo de confianza del 95% osciló entre 30 y 39%, y las probabilidades de que esas resultantes no se producían por azar son de casi 45.000 a 1.

Asimismo, los testeos abarcaron todas las sesiones efectuadas a lo largo de seis años; en otras palabras, no existía un “archivador” de estudios no reportados. Se confirmó plenamente la hipótesis de que los objetivos dinámicos rendían mayores tasas de acierto, y en general, las sesiones que los empleaban arrojaron promedios satisfactorios del 40%, frente al 27% con objetivos estáticos (24).

Otras consecuencias incluyeron la corroboración de nexos entre el desempeño psi y varias características personales de los receptores, como extraversión, vivencias psi previamente informadas y la creatividad o dotes artísticos. Todos esos factores predijeron significativamente los éxitos, pero la relación con capacidades artísticas fue particularmente notoria. En una sesión con veinte estudiantes universitarios de la Escuela Julliard de Artes Escénicas, los sujetos lograron acertar en 50%, uno de los coeficientes más altos conocidos para una sóla muestra. Es más: seis de ocho músicos (75%) identificaron objetivos correctamente, con probabilidades de casi 250 a 1,25.


Y tenía que salir el melindroso fingido...

Años antes, Honorton y Hyman subrayaron la necesidad de incluir criterios estrictos y una mayor gama de expertos en estudios de parapsicología; así, las pruebas Autoganzfeld cumplieron con esas demandas. Sus frutos demostraron ser estadísticamente significativos y consistentes con aquéllos de la base de datos anterior; además, hubo enlaces entre variables conceptualmente relevantes y el desempeño psi, también replicando hallazgos precedentes. Hyman comentó: "Los experimentos de Honorton han producido resultados intrigantes (...). Si otros laboratorios independientes pueden generar secuelas parecidas con las mismas relaciones e igual atención a una metodología rigurosa, entonces es posible que la parapsicología finalmente haya capturado a su esquiva presa" (26).

Como implica el autor, los controles Autoganzfeld no estaban adheridos al parámetro de que las recreaciones fueran hechas por "un grupo más amplio de científicos", pero en 1995 las resultantes fueron repetidas por tres laboratorios adicionales. El primer segmento de la Tabla 7.1 muestra aquéllas de las primeras iteraciones Autoganzfeld en los Laboratorios de Investigación Psicofísica de Honorton (Princeton, Nueva Jersey), y los otros identifican las respuestas de laboratorios en tres países diferentes.

Tabla 7.1. Replicaciones Ganzfeld a partir de 1995.

En 1995, Dick Bierman (Universidad de Amsterdam) informaba que en cuatro experimentos las tasas de acierto llegaron al 34, 37,5, 40 y 36% para 124 sesiones, y el índice de satisfacción combinada fue de 37% (27). El mismo año, Robert Morris, Kathy Dalton, Deborah Delanoy y Caroline Watt divulgaron el corolario de 97 pruebas en la Universidad de Edimburgo (28), y finalmente Broughton y Alexander describían las consecuencias de 100 controles en el Instituto de Parapsicología de Carolina del Norte (29).

Los 28 estudios del metanálisis primigenio acarrearon una tasa de éxito combinada del 35%; más tarde, Robert Rosenthal la estimó en cerca del 33%, cuando se esperaba un 25 por obra del "azar". Como se puede ver en la Tabla 7.1, el promedio general de aciertos combinados en todos los experimentos alcanza un 34%, y Jessica Utts declaró: "Se trata de un efecto robusto, que si no ocurriera en un ámbito tan inusual, la ciencia ya no lo cuestionaría como fenómeno real. Es poco factible que los problemas metodológicos puedan explicar la notable consistencia de los resultados" (30).


Un nuevo "reto"

En 1999 apareció un "desafío" a las pretensiones de Honorton para replicar el Autoganzfeld. Los psicólogos Julie Milton y Richard Wiseman publicaron un breve artículo donde exhibían resultados de treinta estudios Ganzfeld desde 1987, el comienzo escogido para que “los diseñadores de las pruebas tuvieran acceso a Hyman y las directrices de Honorton (1986)" (31). Dichos controles se obtuvieron de catorce artículos escritos por diez personas de siete laboratorios, que comprenden en total 1198 sesiones; no se utilizó ningún criterio para seleccionar los ensayos, y sus autores siguieron una política de "incluir en nuestra base de datos todos los estudios psi que utilizaron la técnica Ganzfeld" (32).

El promedio de éxito combinado de esos 30 experimentos llega al 27,5%, un guarismo menor a los intervalos de confianza del 95% de los dos primeros y con más relevancia. Milton y Wiseman concluyeron: "Los nuevos estudios Ganzfeld muestran un tamaño del efecto cercano a cero, y una acumulación general estadísticamente no significativa (...). Este desdoro en la replicación podría indicar que los resultados Autoganzfeld eran falsos (...). Alternativamente, las diferencias de secuelas entre los Autoganzfeld y la nueva base de datos podrían deberse a que ésta última no se llevó a cabo en condiciones psi-conducentes. Cualquiera que sea el motivo, las resultantes Autoganzfeld no han sido replicadas por un 'espectro más amplio de investigadores', y no se puede considerar que el paradigma homónimo constituya evidencia sólida del funcionamiento psíquico" (33).

Sin embargo, más tarde se develó que Milton y Wiseman viciaron su análisis estadístico al no considerar el tamaño de la muestra. Dean Radin sumó el número total de aciertos y ensayos en esos treinta experimentos (el recurso estándar para realizar metanálisis), y encontró un producto estadísticamente significativo con probabilidades de 20 a 1.

Los treinta ensayos elegidos por la dupla variaron en tamaño desde cuatro hasta cien, pero se sirvió de un modo estadístico que ignoró el factor N (muestra). Supongamos que tenemos tres estudios, dos con N= 8 y dos aciertos (25%) y un tercero de N= 60 con 21 éxitos (35%). Si descartamos la cifra de muestras, el índice no ponderado de aciertos es sólo del 28%, pero el promedio reunido de todas las secuelas satisfactorias es poco menos del 33%, y en términos simples, este fue el equívoco del dueto "incrédulo", pues si hubiera sumado aciertos y errores, realizando luego una prueba-t simple y unidireccional, encontraría productos significativos al nivel del 5%. Como Utts observó más tarde, si Milton y Wiseman hubieran hecho el testeo binomial exacto, las resultantes habrían sido llamativas a un nivel inferior al 4%, con probabilidades contra el azar de 26 a 1.

Otro fallo del "reto" consistió en no incluir un estudio prolongado y de gran éxito por Kathy Dalton debido a una fecha límite arbitraria, a pesar de que se publicó casi dos años antes que el artículo de dicha pareja (34); tuvo amplia discusión entre los parapsicólogos, fue parte de una tesis doctoral en la universidad de Julie Milton, y se presentó en una conferencia presidida por Wiseman dos años antes de que ambos difundieran su "protesta".

En el Comunicado Conjunto, Hyman y Honorton pidieron a los futuros investigadores Ganzfeld, como parte de sus “protocolos más rigurosos”, que documentaran claramente el estado del experimento, es decir, si se pretendía confirmar hallazgos anteriores o pesquisar condiciones nuevas (35). La tercera falla por Milton y Wiseman fue que agrupaba todos los controles, independiente de si el estatus de cada uno era asertivo o exploratorio. En otras palabras, no hicieron ningún intento de definir el nivel en que los testeos individuales cumplían con el precepto Ganzfeld estándar.

El artículo de Milton-Wiseman abrió un vigoroso debate en línea, que culminó con un texto publicado en el Journal of Parapsychology, escrito conjuntamente por un psicólogo y dos parapsicólogos. Tras un breve resumen de la discusión hasta ese momento, Bem, Palmer y Broughton señalaron: "Una de las observaciones realizadas durante el debate fue que varios estudios que contribuyeron con puntuaciones z-negativas al análisis [es decir, las secuelas fueron menores de lo esperado por casualidad] habían utilizado procedimientos que se desviaban notablemente del protocolo Ganzfeld estándar, y semejante evolución no es mala ni fortuita. Muchos investigadores psi creen que la confiabilidad del método básico está suficientemente bien establecida, para justificar su uso como herramienta para una mayor exploración psi. De esa manera, y en lugar de seguir efectuando réplicas precisas, han ido modificando el proceso y extendiéndolo a territorio desconocido. No es sorprendente que tales desvíos del repriz exacto tengan un mayor riesgo de fallas; por ejemplo, en vez de emplear estímulos visuales, Willin ajustó el procedimiento Ganzfeld para ver si los emisores podían comunicar objetivos musicales a los receptores, y no fue así. Cuando esos estudios se incluyen en un metanálisis indiferenciado, el tamaño del efecto general se reduce, y malévolamente, el procedimiento Ganzfeld se convierte en víctima de su propio éxito" (36).

Bem, Palmer y Broughton se propusieron verificar su hipótesis de que las mermas en puntuaciones promedio se debían a que los controles eran explorativos y no confirmatorios. Se pidió a tres evaluadores independientes no familiarizados con estudios Ganzfeld recientes -y por ende desconocían el producto de los mismos- que calificaran el nivel en que cada uno de los testeos nuevos se apartaba del protocolo estándar. Luego se reexaminó la base de datos para probar el supuesto de que las tasas de aciertos estaban correlacionadas positivamente con el grado en que los procedimientos experimentales se adhirieron a los formalismos. Los evaluadores asignaron una clase a cada uno de los 40 estudios, y se promediaron sus categorías. La clasificación osciló de 1 a 7, donde éste último indica el mayor grado de cumplimiento del protocolo, como se describe en dos artículos por Honorton a principios de la década '90.


Resultados

Según la hipótesis, las tasas de éxito se correlacionaban significativamente con el rango en que las técnicas experimentales se ajustaron a los principios establecidos. Si definimos como “estándar” a aquellos estudios que se ubicaron por sobre el punto medio de la escala (4), entonces las recreaciones modélicas obtuvieron aciertos generales del 31,2%, mientras que los no paradigmáticos produjeron sólo 24%. Las secuelas son aún más espectaculares si consideramos sólo los controles de replicación clasificados en el puesto 6 y superiores: esas 21 pruebas (más de la mitad de la muestra) lograron un promedio de satisfacción general del 33%, casi igual a las instancias previas.

No tiene mucho sentido realizar más iteraciones, y varios de quienes tengan un compromiso previo con el pseudoescepticismo tal vez jamás cambien sus asertos públicos, sin importar cuántos estudios se implementen. Sólo se podrán lograr avances reales si los investigadores están dispuestos a explorar nuevas fronteras.

Las tablas adjuntas evidencian que las resultantes fueron repetidas por múltiples investigadores en diferentes laboratorios y culturas, con tasas de acierto similares. En 1996 Hyman escribió: “Los argumentos a favor del funcionamiento psíquico parecen mejores que nunca (...) no tengo una explicación preparada para estos efectos observados” (37), y así los escépticos de camelo perdieron la contienda.

Tabla 7.2. Reiteraciones desde 1996.

Tabla 7.3. Sinopsis (1974-1999).


Notas sobre el tamaño del efecto y la muestra

Vimos que los investigadores aislaron ciertas variables, como la capacidad artística y el uso de objetivos dinámicos, que parecen mejorar el rendimiento psi más allá de lo que se esperaría normalmente; pero hasta hoy el promedio global de aciertos se mantiene muy constante -alrededor de 33% frente al 25% por azar-, lo cual corresponde en términos generales a un éxito cada tres sesiones, mientras que la "suerte" predeciría uno de cada cuatro.

Puede que esto no sea muy impresionante, pero es aleccionador comparar los resultados con aquéllos de un importante ensayo médico, que buscaba definir si la aspirina reducía las chances de ataques al miocardio. El estudio se interrumpió luego de seis años, porque ya estaba claro que tomar dicho fármaco cumplía ese objeto, y se consideró injusto mantener el tratamiento alejado del grupo control que consumía placebos. Los frutos de esas pruebas se celebraron como un "gran avance científico", pero al final se descubrió que ingerir aspirina reduce la probabilidad de infartos en sólo 0,8%, un guarismo casi diez veces menor que el efecto observado en los experimentos Ganzfeld (38).

La prolongada controversia Ganzfeld se explica en parte porque la magnitud de las secuelas no es "lo suficientemente grande" para ser advertida, y sin ayuda de estadísticas. Cuando los tamaños del efecto son reducidos, se necesitan muestras grandes para proporcionar el poder estadístico con tal de percibir la resultante. El testeo de la aspirina se realizó con más de 22.000 participantes, pero si hubiera comportado 2200, las consecuencias no habrían tenido significación estadística.

Si el verdadero índice de aciertos en las pruebas Ganzfeld fue sólo 33% frente al 25% esperado, entonces un experimento con treinta sesiones (promedio de los 28 estudios del metanálisis de 1985) tiene aproximadamente una probabilidad entre seis de encontrar un efecto llamativo, al nivel del 5%; y con cincuenta, las posibilidades llegan a una de cada tres. De esta manera, hay que expandir el porte de la muestra a cien sesiones para alcanzar un punto de equilibrio, donde las chances quedan en 50/50 de hallar respuestas apreciables (39).

Algunos "escépticos" semejan tener problemas para asimilar la importancia del tamaño de la muestra, o tal vez deciden ignorarlo. Jessica Utts complementa: “Cuando se trata de un efecto pequeño o mediano, se necesitan cientos o miles de intentos para establecer una 'significancia estadística' (...). A pesar de las continuas protestas por Hyman sobre la falta de repetibilidad en parapsicología, nunca he visto una iniciativa escéptica de concretar experimentos con suficientes ensayos para acercarse siquiera a asegurar el éxito" (40).


Referencias

1. Honorton, “Rhetoric over Substance", p. 206; Bem y Honorton, “Does Psi Exist?”
2. Radin, The Conscious Universe, p. 79.
3. Blackmore, “The Extent of Selective Reporting of ESP Ganzfeld Studies”.
4. Hyman y Honorton, “A Joint Communiqué", p. 352.
5. Honorton, “Meta-analysis of Psi Ganzfeld Research: A Response to Hyman”; Radin, The Conscious Universe, p. 81–82.

6. Harris y Rosenthal, “Postscript to ‘Human Performance Research’”; Saunders, “On Hyman’s Factor Analyses”; Utts, “Rejoinder”.

7. Saunders, “On Hyman’s Factor Analyses”, p. 87.
8. Hyman y Honorton, “A Joint Communiqué”, p. 353.
9. Scott, “Comment on the Hyman-Honorton Debate”, p. 349.
10. Hyman y Honorton, “A Joint Communiqué”, p. 351.
11. Radin, The Conscious Universe, p. 85.
12. Hyman, “A Critical Overview of Parapsychology”.
13. Rosenthal, “Meta-analytic Procedures and the Nature of Replication", p. 333.
14. Descrito en Broughton, Parapsychology, p. 322. Ver también “Academy Helps Army Be All That It Can Be” (noticias y comentarios); Druckman y Swets, Enhancing Human Performance.

15. Alexander, “Enhancing Human Performance”, p. 12.
16. Hyman y Honorton, “A Joint Communiqué”, p. 352.
17. “Academy Helps Army Be All That It Can Be”.
18. Harris y Rosenthal, “Human Performance Research”, p. 53.
19. Ibídem, p. 51.
20. “Report of a Workshop on Experimental Parapsychology”.
21. Alexander, “Enhancing Human Performance”.
22. Bem y Honorton, “Does Psi Exist?”
23. Ibídem.
24. Utts, “Replication and Meta-analysis in Parapsychology".
25. Bem y Honorton, “Does Psi Exist?” Ver también Schmeidler, Parapsychology and Psychology; Dalton, “Exploring the Links”; Krippner, “Creativity and Psychic Phenomena”; Palmer, “Extrasensory Perception”; Honorton, Ferrari y Bem, “Extraversion and ESP Performance”.

26. Hyman, “Comment”, p. 392.
27. Bierman, “The Amsterdam Ganzfeld Series III & IV”.
28. Morris, Dalton, Delanoy y Watt, “Comparison of the Sender/No Sender Condition in the Ganzfeld".

29. Broughton y Alexander, “Autoganzfeld II”.
30. Utts, “An Assessment of the Evidence for Psychic Functioning”, p. 21.
31. Milton y Wiseman, “Does Psi Exist?”, p. 388.
32. Ibídem, p. 388.
33. Ibídem, p. 391.
34. Dalton, “Exploring the Links”.
35. Hyman y Honorton, “A Joint Communiqué”, p. 361.
36. Bem, Palmer y Broughton, “Updating the Ganzfeld Database”, p. 208.
37. Hyman, “Evaluation of Program on Anomalous Mental Phenomena”.
38. Steering Committee of the Physicians Health Research Group, “Preliminary Report”.

39. Utts, “The Ganzfeld Debate”.
40. Utts, “Response to Ray Hyman’s Report”, p. 3.

21 de abril de 2024

El "mentirasombroso" Randi y la estafa de su "reto paranormal"

Por Sean Connelly ("Peebrain"), reproducido de PsiPog.net,
https://skepticalaboutskeptics.org


El 29 de enero de 2005 y en la sala virtual de chat, hablábamos sobre el "desafío paranormal" de US$1 millón propuesto por James Randi. Para quienes no lo sepan, la versión breve es que dicho ex-mago está dispuesto a otorgar ese premio a cualquier individuo que constate un hecho o habilidad parapsíquicos. Comúnmente nos preguntan por qué no aceptamos el reto con todo lo que hablamos en PsiPog; claramente podemos ser candidatos, y parece ser dinero fácil. Durante el coloquio, la usuaria Annie observó que el pago era en forma de bonos, no en efectivo, explicando cómo aquéllos pueden "valer" legalmente un millón de dólares, pero en realidad serían del todo inservibles.

Decidí investigar el asunto. Había pensado en "recoger el guante", y sé que algunos de mis amigos también... ¡millones de dólares semejan un dulce muy tentador! Pero al mismo tiempo, he oído que Randi se hizo fama de deshonesto, y como veréis a continuación, el supuesto premio es una estafa.

Empecé enviando un correo electrónico a Randi, y todo fue cuesta abajo desde ese momento. Me llevaría una eternidad precisar los detalles, y serían muy aburridos de leer; por ende, seré conciso. Obviamente estoy sesgado porque jugué un rol clave en esta situación, y no tenéis que confiar en mí por completo. Publicaré los registros de lo sucedido al objeto de confirmar el resumen. Permanezco abierto a cualquier discusión y pregunta; sólo escríbanme por el chat o también a peebrain@psipog.net [N.del T.: se desconoce si la dirección sigue activa].

¿Qué es un bono y por qué es distinto al efectivo? Primero, hay que entender cómo funcionan los bonos. Estaba realmente confundido al inicio, pues si Randi ofrece un millón de dólares, ¿cómo puede ser una recompensa "inútil"? En apariencia es muy claro. Los bonos constituyen certificados de deuda, o básicamente pagarés. Los gobiernos o corporaciones necesitan dinero para financiar proyectos, por lo que acuden a los ricos y les dicen "dennos algo de peculio y les pagaremos intereses; luego de un tiempo, les devolveremos todo su capital”.

Los bonos tienen cuatro elementos clave: el emisor, la tasa de interés, los plazos para devolver el dinero y la cantidad prestada. Veamos un ejemplo. Para su panadería, el señor A. necesita dinero con tal de adquirir un horno, y comienza a percibir ganancias por sus ventas, pero no dispone de fondos para activar los engranajes mayores. Entonces recurre al patrocinador B. y le dice "si me das US$10.000, te pagaré $100 todos los meses durante dos años, y recibirás de vuelta tus 10.000". Esto es atractivo para A. porque puede poner en marcha su empresa y con ello aumentar los ingresos. El trato se cumple, la panadería crece y el dueño está feliz. El rico también está conforme porque le da $10.000 y no tiene que hornear, comprar equipos ni contratar empleados. Vemos así cómo y para qué existen estos lazos: los ricos quieren más dinero y los empresarios pobres desean un negocio exitoso (sé que estoy simplificando todo para que se entienda, y en realidad es un poco más enrevesado).

¿Cómo pueden los bonos implicar dinero legalmente, y a la vez no tener valor? ¿Dónde está el problema? ¿Y si la panadería de A. no tiene éxito y quiebra? ¿Qué pasa con los $10.000? Básicamente, todo se pierde. El rico no recibe sus $100 mensuales y además pierde su caudal.

¿Y cómo se traduce esto en el "desafío" de James Randi? El premio no es en efectivo, sino con bonos que VALEN un millón de dólares. Hubo mucha gente dispuesta a financiar el proyecto y todos dieron pagarés a Randi, que en total suman un millón de dólares. De esta forma, es posible que sean inválidos, pues ¿qué pasa si muchos de ellos son de corporaciones a punto de ir a la bancarrota? ¿Tal vez no tengan que pagar los bonos por otros 40 años? En nuestro ejemplo, A. canceló todo en 24 meses, y a esto se llama "vencimiento" del bono. Algunos títulos prescriben en pocos años y otros luego de décadas. Si Randi otorga un premio que no vence en 40 años, entonces legalmente tengo un millón de dólares, pero no puedo USARLOS hasta que venzan los documentos. Como podéis colegir, hay muchos escenarios diferentes en que los bonos valdrían LEGALMENTE un monto específico, pero en realidad no serían útiles.

El siguiente paso fue averiguar cuánto valen realmente dichos certificados. Envié un email a Randi con la dirección que proporcionó en su sitio; cortésmente señalé el acápite en las Reglas de que la recompensa estaba en bonos, y pregunté qué corporaciones los emitían, y cuáles eran las tasas de interés y fechas de vencimiento. James respondió: "Postule, o váyase".





Le expliqué que buscaba más detalles sobre el premio, lo cual no tenía nada que ver con mis pretensiones, sino sólo eran preguntas encaminadas a obtener datos. Randi escribió: “Inmediatamente convertible en dinero. Eso es todo en lo que me voy a involucrar. Postule o esfúmese”. Mis dudas continuaban igual. "Inmediatamente convertible", pero ¿en cuánto dinero? ¿Y a través de quién?


Escribí de nuevo a Randi, solicitando aclaraciones. No quería ser molestoso, pero de facto no estaban respondiendo. ¿Por qué debía postular en caso que los bonos fueran inválidos? Las Reglas del desafío establecen que eventualmente soy responsable de todos los costos incurridos en la búsqueda del premio, por lo que es muy factible que debiera pasar por una serie de obstáculos engorrosos, gastar mi dinero y quedarme sólo con una pila de certificados vacíos para demostrarlo.

Randi me derivó con un tal Kramer, cuyo trabajo era administrar todas las candidaturas de aserciones paranormales. Se presentaba así en un mensaje: “Randi señaló que me comunique con usted directamente, respecto a sus consultas sobre el desafío de la JREF (...). Me encargo de todas las actividades relacionadas con ello, y podéis escribirme en caso de preguntas”.




De acuerdo. Cortésmente expliqué mi situación a Kramer y formulé las mismas interrogantes. El tipo replicó: “Hasta ahora, estás lleno de mierda. Esa es NUESTRA perspectiva. Postula o lárgate. No tenemos que probarte nada. Si realmente tienes habilidades, las presentarás”. ¡Guau, gracias por la cortesía!






Antes de contactarlos, sospechaba que las cosas se pondrían feas, por lo cual traté de mantenerme dolorosamente educado, lógico y consistente desde el principio. Incluso previo a escribirles, supe que Kramer publicaba conversaciones por email en los foros de su sitio, comentando que un "imbécil" les hacía preguntas. Más tarde encontré el hilo nuevo en dicha página electrónica.

Esperé encontrar un montón de pseudoescépticos burlándose de mí, y así fue. Lo que no imaginaba es que Kramer EDITÓ los correos antes de publicarlos. De improviso, su amable frase "lleno de mierda" quedó como "lleno de tonterías", y el empático "postule o esfúmese" de Randi devino en "tiene sólo dos opciones: participar o abstenerse". También hicieron otros cambios menores para convertir el texto en uno severo, pero cortés.







Ahora bien, ¿es esto un gran problema? En realidad no. Sin embargo, obviamente fue un todo un lío para Kramer, o no se habría tomado el tiempo para elaborar esta manipulación. Por fortuna, mi mensaje aún era transmitido en el registro público del foro. Quizás dicho personaje modificó las entradas para que Randi y él mismo "se vieran mejor", pero mis preguntas seguían ahí. Para mi sorpresa, algunos miembros me apoyaron al corroborar que esas dudas eran legítimas.

Visto que otros usuarios estaban de acuerdo con mi postura, Kramer decidió publicar una respuesta que jamás llegó a mi correo electrónico, y la única razón de haberla descubierto fue porque sabía que él se esforzaba para hacerme quedar como "idiota" en el foro (como hizo con todos los demás que le enviaron mensajes privados). Kramer sostuvo después que el galardón era en EFECTIVO y no bonos. "Vaya", pensé, "esto es una sorpresa". Las reglas establecen: "(...) la JREF pagará al reclamante el resto del premio, por un total de US$1.000.000 (...) en bonos negociables, retenidos por una empresa de inversión en Nueva York". Esto se puede leer de múltiples formas; personalmente, lo interpreto en el sentido de que la recompensa constituye dichos títulos, al tiempo que Kramer decía lo contrario basándose en la cotización del valor. Así que yo era el "idiota", ¿verdad? Por suerte, otros que tal vez no aceptaban la parapsicología eran lo suficientemente cuerdos para ver que mencioné un problema lícito. Si Kramer sostiene que el pago es en efectivo, entonces debieran cambiar la página de reglas.

Durante ese tiempo, comencé a postear en los foros para exponer mi criterio, y señalar también que Kramer había editado las comunicaciones. Los argumentos se veían muy interesantes, pero más lo fue el meollo del asunto: las exigencias no eran transparentes en cuanto a que el premio es en efectivo; y si era en bonos, entonces ¿cuáles son los detalles?

Lo siguiente me dejó totalmente alucinado. Kramer publicó haber "recibido un correo" mío, donde yo "elogiaba su arduo trabajo" y diciéndole que "el malentendido se resolvió". El problema es que jamás acusé recibo de este mensaje. Me quedé en shock. Ahora no se trataba de "ediciones menores" para influir en la gente de un modo u otro, y recurría a una mentira descarada. Pensé que Kramer pudo ser víctima de alguien que se hizo pasar por mí, pero lo cierto es que envié emails a Randi y Kramer desde una cuenta privada, la cual no utilicé para nada más. Nadie en los foros, PsiPog y ni siquiera mis amigos cercanos saben cuál es la dirección. Para que un tercero falsificase el correo, tendría que mandar un mensaje a Kramer desde otra cuenta (lo que debería hacer que éste sospechara), o distorsionar alguno desde la mía (que, nuevamente, conocen sólo yo y los dos interlocutores). Además de eso, Kramer mostró su disposición a manipular correos. Traté de hacer que se investigara el asunto, pero rápidamente se descartó bajo todo tipo de excusas. Y a Kramer no le importaba, por cierto.

La mayoría de foreros acordó que era menester aclarar el tema, porque los detalles no eran convincentes desde el principio; así, alguien ofreció escribir un apartado de FAQs ("Preguntas Frecuentes") sobre el desafío, y publicarlo en el sitio. La idea era que Kramer derivara a los interesados hacia dicho texto y ahorrarle tiempo. En la redacción, su autor planteó una consulta sobre la forma del dinero, y anteriormente ya vimos que era "en efectivo".

El párrafo decía: “Si alguien gana, ¿cómo se le pagará? -Aunque el dinero se mantiene en bonos como forma de mostrar al público que realmente existe, los certificados se convertirán a dólares estadounidenses antes de pagarse. Los primeros $10.000 en metálico se cancelarán con cheque, tal como establecen las reglas. El método común para otorgar una cuantía grande como los $990.000 restantes es mediante transferencia electrónica, y es razonable suponer que así es como se pagará también este premio en metálico”.

Esto es lo que Kramer había estado diciendo todo el tiempo, y eso se identificó como el origen de "mi confusión". Al tipo le encantaron las FAQs y decidió postearlas oficialmente; por supuesto, hizo algunas modificaciones al borrador y dejó el texto de la siguiente forma:

“Si paso la prueba formal y gano el desafío, ¿cómo me pagarán? -Los primeros $10.000 en metálico se pagarán con cheque, como establecen las reglas, inmediatamente después de la demostración exitosa. El dinero se mantiene en forma de bonos, con tal de mostrar al público que el capital realmente existe. Estos certificados convertibles se darán al ganador dentro de los 10 días posteriores a la aprobación del testeo formal. El método de transferencia de dichos bonos quedará a discreción de la JREF y el ganador, de acuerdo con los estándares legales aceptables”.

N.del T.: El 1 de abril de 2007, la JREF presentó el nuevo Reglamento de Postulación, aumentando sus cláusulas de 12 a 16 y manteniendo el aserto que Connelly impugnó.

Y al final, resulta que el premio SON LOS BONOS. Mi suposición original era correcta después de todo, y mis preguntas siguen en el aire. ¿Qué se puede decir? Lo más obvio es que Kramer ciertamente no es digno de confianza. Editó correos electrónicos, dijo a todos que el premio era "en efectivo", y nadie sabe de dónde vino el email falso (Kramer tampoco mostró información para averiguarlo). Al momento de escribir esto, el sujeto no abordó los escollos iniciales que provocaron todo este fiasco (recapitulando, quién emitía los bonos, cuáles eran las tasas de interés y las fechas de vencimiento).

Si bien los integrantes del mencionado foro muestran diversos niveles de incredulidad, Kramer no muestra nada relacionado con el escepticismo verdadero y saludable. Su mente es la de un fundamentalista egocéntrico: él tiene razón, todos los demás se equivocan y "está bien trastocar la verdad" para convencer. Si alguien de ustedes considera participar en el "desafío paranormal" por Randi, sería muy ingenuo al pensar que es "tan claro y simple" como lo describen. Cuando firmes la solicitud, estarás amarrándote a un contrato con ellos. Y si les resulta tan difícil jugar limpio cuando se trata de unos cuantos mensajes, imaginemos cómo actuarán cuando exista un millón de dólares en disputa... suponiendo que los bonos realmente valgan.

11 de agosto de 2023

Espacio, tiempo y relatividad

David Pratt
​Mayo 1998, última revisión enero 2020


​Contenidos:

01. La relatividad en términos teosóficos
02. Fantasías del Big-Bang
03. Las patrañas de Einstein
-Einstein y el éter
-Longitud, tiempo y masa
-Movimiento relativo
-Rotación y relatividad
-Velocidad de la luz
-Espacio y tiempo vs. espacio-tiempo
-Espacio deformado, lógica deformada
-Unificación
-Einstein vs. Reich
-La ciencia del futuro


01. La relatividad en términos teosóficos

Comúnmente se considera al espacio como "la nada" o "vacío absoluto", pero no existiría si así fuera, y nada podría ubicarse o moverse a través de él. La lógica señala que el espacio debe poseer alguna clase de estructura, y por ende consistir en una sustancia; a menos que a ésta última se le asignen propiedades abstractas e imposibles (como continuidad y homogeneidad absolutas), aquél también puede comportar grados infinitos de energía-sustancia que se interpenetran. Lo que para nosotros constituye espacio "vacío", refiere simplemente a aquellas regiones cósmicas que albergan materia no perceptible para nuestros sentidos físicos.

Algunos escritores teosóficos distinguen dos tipos de espacio: a) abstracto, que representa al Todo ilimitado y único, la esencia divina omnipresente, insondable e inefable, siendo además Conciencia Universal, vida, sustancia, fuerza y energía; y b) infinito, que comprende un número eterno de espacios o unidades concretos o finitos, cada uno compuesto por partes más pequeñas y anidadas en una jerarquía de grupos mayores. Estos sistemas se extenderían no sólo "horizontalmente" (en el mismo plano), sino también de modo "vertical" o interno (hacia niveles superiores e inferiores), pues el quid de la conciencia-vida-sustancia se manifiesta en un espectro perenne de vibración o densidad, formando un continuo inacabable de mundos o sistemas interactuantes dentro de otros.

Por ejemplo, en nuestro ámbito "horizontal" (plano físico) encontramos en orden creciente la jerarquía de partículas subatómicas, átomos, moléculas, células, organismos, ecosistemas, planetas, sistemas solares, galaxias, cúmulos, supercúmulos, etc. La constitución "multicapa" de los mundos y organismos que les habitan formarían rangos "verticales'', compuestos de varios aspectos interrelacionados, desde físico-astrales hasta psicomentales y espirituales-divinos, los cuales a su vez pueden dividirse aún más. El espíritu y la materia son sólo uno y se hallan en vínculo mutuo, dado que esencialmente el Universo es una integridad manifestada en una diversificación interminable, y el polo más "espiritual" de una escala es el más "denso" del grado superior, como asimismo éste puede representar la mayor categoría de su estrato inmediatamente inferior.

Aunque el Espacio Ilimitado puede describirse como un "contenedor vacío lleno de seres y objetos", sería más correcto decir que la totalidad infinita de mundos dentro de mundos, y la eterna miscelánea de entidades vivas, sustanciales y conscientes asociadas con ellos, en rigor componen un espacio, y desde esta visión, la realidad es una plenitud o plenum. Sin embargo y según otra perspectiva, aquélla podría comportar un vacío (shunyata en el budismo) ya que todos los planos infinitos que la componen son invisibles para nosotros, excepto en el plano material, que en sí mismo es sólo una manifestación transitoria que consiste principalmente de espacio vacuo.

Estrictamente hablando, lo que para nosotros son "ámbitos invisibles" no representan "dimensiones" accesorias; todos los sistemas sustanciales y concretos que forman cualquier mundo se extienden en tres medidas espaciales, y nada más. En su sentido más amplio, una "dimensión" es cualquier aspecto ponderable como longitud, masa, temperatura o tiempo, aplicadas a entidades manifestadas como átomos, estrellas o humanos; de esta forma, el espacio infinito no posee otras magnitudes porque ello implica una abstracción irracional. Incluso H.P. Blavatsky escribió: "(...) el sentido común y popular se rebela justamente contra la idea de que bajo cualquier condición puedan existir más de tres dimensiones como longitud, anchura y grosor" (4).

Las palabras "plano" y "subplano" denotan rangos particulares de vibración o densidad, y son términos relativos. El primero de ellos también se puede llamar "globo" o "esfera", ya que los sistemas naturales como planetas y estrellas tienden a asumir una apariencia más o menos esférica. Desde un prospecto, todo astro visible en el Universo físico es un plano/subplano propio, flotando en el éter intangible del espacio, y según otro enfoque, todos pertenecen al mismo plano (tangible) al estar formados por materia de más o menos el mismo grado, escasamente dispersa por todo el espacio "vacuo" entre ellos.

Nuestro planeta parece ser un objeto continuo y sólido. De acuerdo con los autores teosóficos ya mencionados, estaría hecho por "discontinuidades" (átomos) separadas por un espacio vacío (materia etérica) y compuestas de otras más pequeñas (corpúsculos subatómicos), que a su vez se hallan divididas por otras vacuidades y son más fraccionables. Cada intermisión comparativa (p. ej., estrella, planeta o subpartícula) es un todo relativamente continuo que se puede resolver en otros "paréntesis" o subcanales más finos, y forma parte de conjuntos mayores que en algún nivel semejan ser permanentes, por lo cual cada conglomerado o subgrupo puede considerarse a modo de globo, esfera o plano.

Así como el espacio ilimitado comprendería unidades interminables de espacio finito, la duración eterna abarca segmentos perpetuos de cronología delimitada. El tiempo es un concepto que cuantifica la velocidad con que ocurren los eventos; representa una función de cambio y movimiento, y presupone una sucesión de causa-efecto. Cada entidad se desarrolla en el espacio y cambia a través de los años, y desde esa perspectiva nada puede existir absolutamente "más allá" de dichas nociones, aunque la experiencia subjetiva de ambas puede variar mucho de acuerdo con el estado de ánimo/conciencia y la fase evolutiva.

En ocasiones la Teosofía sostiene que el tiempo es un "eterno ahora", pero esto no pretende negar la existencia de una serie causa-efecto. Todo lo que acontece tiene lugar en un presente universal e infinito hasta cierto punto. Si bien el pasado es -por definición- lo que ya sucedió, y el futuro es aquello que aún no sobreviene, ambos están vivos en el hoy porque éste es fruto del pasado y padre del porvenir.

¿Cuánto dura el "momento actual"? En el caso de los humanos, se determinó que los pulsos sónicos separados por más de tres segundos ya no pueden agruparse en pares, al caer fuera del intervalo de nuestra atención. Esto representa el fragmento temporal máximo que está presente simultáneamente para la evaluación subjetiva, una suerte de "periodo de interés" que une eventos pretéritos y futuros:

"¿Cuán finamente podemos segmentar nuestras pequeñas vidas de 3 segundos? La división perceptible más corta (llamada umbral de fusión por psicólogos sensoriales) es de entre 2 y 30 milisegundos (ms), dependiendo de la modalidad sensorial. Dos sonidos parecen unirse en una sensación acústica si están separados por menos de 2 a 5 milisegundos. Dos toques sucesivos se combinan si ocurren dentro de aproximadamente 10 milisegundos uno del otro, mientras que los destellos lumínicos se difuminan si están separados por menos de 20-30 ms" (6).

En principio, los lapsos pueden continuar subdividiéndose. Algunos teóricos afirman que la unidad de tiempo más pequeña y factible es de 10-43 segundos, y la medida de distancia más reducida es 10-33 cms., pero estos son sólo límites basados en especulaciones. Si las entidades pueden existir en un rango infinito de tamaños, entonces de manera similar los coeficientes de tiempo y distancia deben abarcar un rango interminable. Por lo tanto, dichas magnitudes son relativas: un átomo es parecido a un sistema solar en miniatura cuya dinámica es quizá millones de veces inferior a un segundo, y toda nuestra galaxia podría constituir una molécula en alguna entidad supercósmica, donde un millón de nuestros años es sólo un abrir y cerrar de ojos. En un nivel hipotético, el instante presente para una entidad infinitesimal tendría esta característica, mientras que en el espacio ilimitado representa una duración eterna. Entre estos dos confines abstractos se encuentra toda la diversidad inacabable del mundo relativamente real, que consiste en seres concretos para los cuales el tiempo presente es siempre finito.

Claramente, la doctrina teosófica sobre la relatividad comporta un inmenso alcance. La esencia divina e infinita de conciencia-vida-sustancia se manifiesta en un abanico sempiterno de formas, escalas y grados etéricos o más tangibles. La infinitud es una abstracción, no una entidad, y por lo tanto no actúa, no cambia y tampoco posee atributos. Asimismo, todas las multitudes de sistemas finitos, concretos y "manifestados" de los cuales está compuesto se mueven/transforman, o actúan/reaccionan, y en virtud de ello tienen cualidades. Son compuestos, no homogéneos, y en última instancia transitorios. Nada es absolutamente independiente de otras cosas; todo está conectado y participa en una intrincada y vibrante red de interacciones causales. Cada mundo o entidad concretos pasan por ciclos interminables de encarnación y desencarnación, actividad y descanso. No existen comienzos o finales absolutos de evolución, sino sólo lugares de inicio relativos y otros de "parada".

Esta enseñanza de relatividad también se puede llamar "doctrina de la ilusión" (maya en sánscrito). H.P. Blavatsky escribe: "Maya (...) es un elemento que entra en todas las cosas finitas, porque todo lo que existe tiene sólo una realidad relativa, y no absoluta, pues la apariencia que el noúmeno oculto supone para cualquier observador depende de su poder de cognición" (7). Dicho de otra manera, todas las cosas/entidades finitas y manifestadas son ilusorias en el sentido de su impermanencia, y no las percibimos como realmente son; sólo vemos la parte externa que muestran nuestros sentidos imperfectos, y no los procesos invisibles que ocurren detrás. Por ejemplo, la estabilidad aparente e invariancia en un nivel son temporales y relativas, una ilusión generada por flujos incesantes en estratos más profundos. Y lo que para nosotros son partículas "elementales", en su propio grado constituyen mundos no menos complejos que la Tierra. Todos los pares de opuestos como claro/oscuro, grande/pequeño, frío/calor, armonía/desarmonía, simplicidad/complejidad, etc., tienen sólo un significado de relación y nunca absoluto.

Los objetos y seres manifestados, con sus formas evanescentes y siempre cambiantes, son "ilusorios" cuando se comparan con el infinito inalterable, y también con la relativa invariabilidad de lo que para cualquier grupo de seres son los ámbitos más "egregios" o no visibles. La entidad espiritual (colectiva) que forma la cumbre de cualquier jerarquía -ya sea atómica, humana, planetaria, solar, galáctica, etc.- es el "absoluto" de ese rango. Hay quienes sostienen que el infinito (simbolizado por un círculo o cero) contiene un número eterno de "unidades", y para ellos todos los absolutos también serían relativos, contradiciendo las explicaciones de Blavatsky. De acuerdo con esos autores, si bien dicha infinitud suele llamarse "absoluto", esto es "incorrecto" porque como la palabra se deriva del latín absolutus que significa "liberado", entonces sólo algo definido que evoluciona puede llegar a perfeccionarse (...).


Referencias

4. H.P. Blavatsky, La Doctrina Secreta, TUP, 1977 (1888), 1:252.
6. Nick Herbert, Elemental Mind, Dutton, 1993, p. 50.
7. La Doctrina Secreta, 1:39, 295-6.


02. Fantasías del Big-Bang

La lógica y el sentido común dictan que nada puede venir de "la nada", y tampoco algo puede aniquilarse en un vacío; por consiguiente, la sustancia energética sólo puede ser transformada. Además, nada finito puede convertirse en eterno o infinitesimal, y viceversa. El espacio es perenne si las multitudes de sistemas finitos y concretos en su interior continúan sin límites y en todas las direcciones. Si el espacio es infinito, siempre debió serlo y ha existido como tal. Si fuese restricto, ¿dónde están sus lindes, y qué hay más allá de ellos?

La única forma de evadir esa pregunta es afirmando que "el espacio se curva sobre sí mismo" para que sea finito, y sin embargo, no posea límites. Ciertamente el espacio tridimensional podría hacerlo si hubiera una cuarta dimensión, pero no hay evidencias de ello. Los "big-bangers" afirman que si hay suficiente materia en el Universo, el espacio se tuerce en sólo tres dimensiones para que sea cerrado y definido, mas para realizar esta notable contorsión se requieren acrobacias matemáticas avanzadas.

El modelo estándar del Big-Bang sostiene que todo el Universo -incluyendo materia, energía, espacio y tiempo- llegó a la existencia desde "literalmente nada'' hace unos 10 a 15 mil millones de años, como resultado de una "fluctuación cuántica aleatoria". Paul Davies y John Gribbin añaden: "(...) el Big-Bang fue la creación abrupta del Universo a partir de una vacuidad literal: ni espacio, ni tiempo, ni materia" (1). Pero si esos tres aspectos no existían antes del hipotético estallido, ¡obviamente no había nada que tuviese fluctuación y ningún lugar para que ocurriera! Sin embargo, los "especialistas" abandonaron la lógica hace mucho tiempo y han creado un mundo de fantasía propio. Por ejemplo, Nick Herbert comenta: "(...) la generación de nuestro Universo (...) tuvo lugar en un escenario no sólo desprovisto de luz y materia, sino también de espacio y tiempo" (2). ¡Sin duda, un lugar muy notable!

Para evitar el absurdo de que "el Universo surgió de un punto infinitesimal" o "singularidad" de densidad y temperatura infinitas, los "big-bangers" diseñaron la noción igualmente descabellada de una "singularidad expandida". Antes de 10-43 segundos después del Big-Bang, cuando el Universo medía 10-33 cms. de ancho, la distinción entre espacio y tiempo "se tornó borrosa" (!!!) como resultado de "fluctuaciones cuánticas", de modo que un punto infinitesimal nunca puede crearse y tampoco es factible aseverar que el origen del Cosmos acaeciera en un momento preciso, sino que está "esparcido".

Desde esta "gran explosión", supuestamente el Universo se ha expandido hacia la nada. El modelo dominante no establece que las galaxias se separen a través del espacio, sino que éste se ensancha, es decir, creándose continuamente de la nada. Dean Turner agrega: "Nadie puede imaginar una falta de espacio a partir del cual éste último se está generando de alguna manera. ¿Cuánto tiempo más tendremos que vivir con una idiotez semejante en física y cosmología?" (3). El concepto del "Universo abierto" plantea que, si bien el espacio surgió hace un período finito y se expande a un ritmo delimitado, de alguna manera "se volvió eterno", probablemente al instante, ¡y aún así todavía se las arregla para seguir con su dilatación! Los ortodoxos creen que en algún momento futuro el Universo empezaría a contraerse, terminando en una "gran crisis" para "hundirse en la aniquilación, sin dejar nada" (¡vaya una obsesión con el vacío!) (4). En los siglos venideros será difícil entender cómo tales nociones a medias podrían haberse pasado por alto como "ciencia" (5).

El postulado del Big-Bang se basa en los modelos de Friedmann, soluciones relativamente simples de la teoría relativista por Einstein que buscan describir el comportamiento dinámico del Universo en su conjunto. Se fundamentan además en el principio cosmológico, es decir, que el Universo es el mismo en todos los lugares y direcciones. Sin embargo, esto se halla en entredicho por el descubrimiento de estructuras cada vez más grandes, sugiriendo que el Cosmos no es uniforme ni homogéneo, sino posee una estructura jerárquica interminable: galaxias, cúmulos de galaxias, supercúmulos, complejos de supercúmulos, etc.

Según la Teosofía, la naturaleza es infinita e ilimitada en espacio y tiempo, sin principio ni final. Dentro de la inmensidad del Cosmos, aparecen y desaparecen constantemente innumerables mundos poblados como "chispas de eternidad" en todas las escalas imaginables, compuestos por seres en diferentes etapas de desarrollo, pasando por ciclos de vida/muerte, o nacimiento/renacimiento. En ocasiones se plantean dos "argumentos" contra la idea de un Universo infinito:

a) La paradoja de Olbers formula la inquietud: ¿por qué el cielo nocturno está casi completamente oscuro? Se responde que si el Universo es eterno y contiene un número inacabable de estrellas, todo el firmamento debería estar iluminado de noche. Esto ignora el factum obvio (negado por la ciencia ortodoxa) de que la luz debe perder energía a medida que viaja por el espacio, y más allá de cierta distancia la luminosidad estelar jamás nos alcanzaría en forma visible.

b) La segunda ley de termodinámica establece que los sistemas cerrados tienden a evolucionar hacia un nivel de máxima entropía o "desorden", en donde la energía se disipa uniformemente de modo inútil, deduciendo así que el Universo se está "agotando". Sin embargo, no existen complejos absolutamente "cerrados", porque existe circulación constante de energías a través de múltiples esquemas que conforman la realidad. Para explicar las contradicciones de esta norma -la existencia misma del Universo con sus galaxias, estrellas, planetas e increíble diversidad de formas bióticas-, algunos científicos utilizan el supuesto artificial de que la disminución entrópica asociada con la génesis de una estrella es posible sólo porque aumenta la entropía del campo gravitacional. En otras palabras, un ámbito gravitatorio o distribución suaves de materia se definen como "baja/alta entropía", respectivamente (6).

Desde una visión teosófica, la tendencia de la entropía a aumentar es únicamente la mitad de una ley: todos los mundos innumerables en el espacio ilimitado pasan por ciclos regulares de formación/disolución, materialización/eterización, desarrollo/retraso o actividad/quietud. Por ello, ¡no existe mucho peligro en que un Universo infinito se detenga por completo!


​Referencias

1. Paul Davies y John Gribbin, The Matter Myth, Simon & Schuster/Touchstone, 1992, p. 122).

2. Nick Herbert, Faster than Light, Plume, 1988, p. 127.
3. R. Hazelett y D. Turner, The Einstein Myth and the Ives Papers, Devin-Adair Co., 1979, parte 4, p. 263.

4. The Matter Myth, p. 175.
5. Para más evidencias contra el Big-Bang, ver "Cosmología: cuestionamientos y nuevas tendencias".

6. Eric J. Lerner, The Big Bang Never Happened, Vintage Books, 1992, p. 288-9.


03. Las patrañas de Einstein

La teoría de relatividad por Einstein es un elemento central de la ciencia moderna, y comúnmente se dice que pasó todas las pruebas empíricas con gran éxito. Sin embargo, hay otras alternativas plausibles para todos los datos experimentales y observaciones astronómicas citadas en apoyo de conceptos especiales y generales, y asimismo docenas de científicos han venido señalando inconsistencias internas y supuestos injustificados del paradigma estándar.

Pari Spolter escribe: "Muchos físicos no han podido publicar sus trabajos en la mayoría de revistas científicas, al señalar que la teoría de Einstein es defectuosa. Los especialistas prominentes se sienten intimidados y advertidos de que pueden estropear sus perspectivas de carrera si se oponen abiertamente a la relatividad" (1). Louis Essen, inventor del reloj atómico, declaró que los físicos parecen abandonar sus facultades críticas al considerar la relatividad, y comentó: "Se dice a los estudiantes que la hipótesis debe ser aceptada, aunque no pueden esperar entenderla. Justo al comienzo de sus carreras se les alienta a dejar la ciencia en favor del dogma" (2). Por su parte, Thomas Phipps declara: "Es ridículo afirmar (en un contexto políticamente obligatorio) de que las conjeturas por Einstein son las únicas capaces de cubrir el rango de conocimiento físico disponible" (3).

Hay varias razones por las que esta suposición es tan popular, y así William Cantrell sostiene: "Primero, nunca se ha prestado mucha atención a considerandos alternativos ni se enseñan en ninguna universidad. Segundo, los partidarios del establishment invierten toda una vida en aprender a mantener el statu quo y actuarán para proteger sus intereses (...). Tercero, la teoría de Einstein -muy vagamente definida y autocontradictoria por su propia construcción- permite a algunos practicantes mostrar un aura de elitismo y arrogancia en su habilidad para manipularla. El supuesto tiene una cualidad exclusiva, como un club cerrado, y eso es parte de su atractivo. Cuarto, admitir un error fundamental en una hipótesis tan difundida sería una vergüenza, no sólo hacia la comunidad general de profesionales, sino también para la memoria de un hombre cuyo retrato está en casi todos los departamentos de física alrededor del mundo".


Algunos escritores teosóficos dijeron que Einstein tenía una copia de La Doctrina Secreta de Blavatsky en su escritorio (5), pero desafortunadamente no es seguro que Albert mereciera "infalibilidad instantánea" por ello, ¡incluso si uno realmente la estudia! Otros manifiestan que la teoría de relatividad se basa en puntos de verdad "incuestionables", mas las deducciones hechas por varios especuladores parecen ser meras extravagancias.


​Referencias

1. Pari Spolter, Gravitational Force of the Sun, Orb Publishing Co., 1993, p. 82.
2. Ibídem (cita).
3. Thomas E. Phipps, Old Physics for New: A worldview alternative to Einstein’s relativity theory, Apeiron, p. 201.

4. William H. Cantrell, "Commentary on Maxwell’s equations and special relativity theory", Infinite Energy, 7:38, 2001, p. 12-18 (infinite-energy.com).

5. Sylvia Cranston, H.P.B.: The Extraordinary Life & Influence of Helena Blavatsky, Tarcher/Putnam, 1993, p. 434.


Einstein y el éter

En el siglo XIX, generalmente los científicos aceptaban la existencia de un medio universal o éter, compuesto por una clase de materia más sutil a través de la cual se propagaban ondas lumínicas o transmitían fuerzas, e incluso generando masa según ciertos pesquisantes. Algunos teósofos dicen que el éter puede considerarse como materia física en sus tres niveles superiores, siguiendo más allá los reinos astral, mental y espiritual. Blavatsky predijo en 1888 que el éter sería rechazado (2); en efecto, durante la primera mitad del siglo XX fue proscrito oficialmente por la ciencia y Einstein jugó un rol destacado en el proceso.

Este elemento no se puede advertir directamente por medios tangibles o químicos. Sin embargo, los estudiosos razonaban que, si la Tierra se desplaza a través de un éter estacionario, debería existir un "viento" análogo y apreciable que cubría aquélla, de modo que la velocidad de la luz sería ligeramente inferior en la dirección del movimiento planetario que en los ángulos rectos formados con ésta. Las primeras iniciativas de prueba fueron realizadas por Albert Michelson en 1881 y nuevamente seis años después junto con Edward Morley; no obstante, el diseño que utilizaron no pudo detectar el viento etérico esperado de 30 km/s que surge del traslado orbital de la Tierra en torno al Sol, y únicamente se percibió una leve variación en la velocidad lumínica, que podría atribuirse a un error experimental. A principios del siglo XX, Morley y Dayton Miller llevaron a cabo más ensayos del mismo tipo y continuaron distinguiendo un cambio reducido pero persistente en dicha rapidez. Hoy sigue siendo motivo de controversia si estos resultados eran trucos significativos o meramente experimentales; en cualquier caso, las pruebas posteriores demolieron la creencia de Miller en un éter electromagnético-estacionario, y no respaldan su deducción de que el movimiento "absoluto" de la Tierra se dirija a un punto cercano al polo eclíptico sur (3).

Michelson no concluyó que "no existía un éter estacionario", sino que la Tierra lleva consigo una parte de él mientras orbita al Astro Rey, de modo que está cubierta por su propia eterosfera (un concepto propuesto anteriormente por George Stokes y defendido por Heinrich Hertz y Max Planck). Hendrick Lorentz presentó una explicación alternativa al ensayo de Michelson-Morley y también retuvo su idea inicial, pero en vez de introducir el "arrastre del éter", sostuvo que los instrumentos de mensura empleados se contraían en sentido del movimiento terrestre, y en la cantidad precisa para eludir la detección etérica (o contracción de Lorentz-FitzGerald). En los primeros cinco años del siglo XX, y con ayuda de Henri Poincaré y Joseph Larmor, Lorentz desarrolló una teoría de relatividad firmemente basada en la existencia de un éter fijo. Según sus ecuaciones transformacionales, los objetos se contraen ligeramente en la dirección del movimiento, los relojes desaceleran y la masa aumenta como resultado del desplazamiento a través del éter.

En 1905, Einstein publicó su hipótesis especial de relatividad, que trataba sobre el movimiento uniforme (la premisa análoga que trata de movimiento acelerado y gravitación apareció en 1915-1916). Este trabajo incorpora el "principio de relatividad", estableciendo por lo general que las leyes físicas, cuando se formulan adecuadamente, siguen siendo válidas en todos los marcos de referencia que se desplazan con velocidad uniforme entre sí. Esta norma había sido formulada por Ernst Mach y Poincaré algunos años antes, aunque Newton la concibió por primera vez, y la relatividad especial también incluye las transformaciones por Lorentz. La célebre ecuación E=mc2 tampoco es "descubrimiento" de Einstein, sino que fue publicada primero por el ingeniero italiano Olinto De Pretto en 1903 (4). En su artículo sobre relatividad de 1905, Einstein reconoció la ayuda de su amigo Michael Besso y cercano a la familia De Pretto, pero no incluyó una sóla referencia a documentos de otros científicos cuyas ideas trataba de resumir.

La contribución del alemán a su síntesis radical fue desechar el éter como "superfluo" y reemplazarlo con la idea de que las "ondas" electromagnéticas se propagan como partículas (fotones) a través de un "espacio vacío". Aunque su concepto abarcó las transformaciones lorentzianas, y en vez de considerar la contracción en longitud y el retraso de relojes como efectos del movimiento a través del éter, Einstein las derivó de un postulado muy diferente que en realidad no era más que una suposición injustificada: había una constante absoluta en la velocidad de la luz medida por todos los observadores que se desplazaban a una rapidez uniforme y relativa entre ellos.

En el contexto de su hipótesis, Einstein introdujo un "nuevo éter" relativista o gravitatorio, el cual sí existía dado que la relatividad dotaba al espacio con cualidades físicas (capacidad de afectar el comportamiento de materia y energía), diciendo que aquélla era "impensable" sin ese elemento. A pesar de esto, subrayó que dicho éter no estaba compuesto por partículas y las ideas de "descanso" y "movimiento" no le eran aplicables; así, equivalía a su "continuo espacio-tiempo", esencialmente una abstracción matemática y desprovista de sustancia-energía, pero capaz de producir efectos tangibles en algún modo. Puesto que había sido refutada la concepción del éter como sustancia mecánica, en 1938 dijo que "este es el momento de olvidarlo por completo y nunca hacerle mención", llegando a considerar los campos como "estados físicos del espacio" y declaró que no existía tal cosa como una vacuidad, pero en 1949 comentó sabiamente: "No hay un sólo concepto del cual estoy convencido que sobreviva, y tampoco estoy seguro de si me hallo en el camino correcto" (5).


Referencias

2. H.P. Blavatsky, La Doctrina Secreta, TUP, 1977 (1888), 1:331.
3. Dayton C. Miller, "The ether-drift experiment and the determination of the absolute motion of the earth", Reviews of Modern Physics, v. 5, 1933, p. 203-42; Paulo Correa, "A note on Dayton Miller’s supposed discovery of an aether drift", 2008, aetherometry.com; Thomas J. Roberts, "An explanation of Dayton Miller’s anomalous 'ether drift' result", 2006, arxiv.org.

4. Al Kelly, Challenging Modern Physics: Questioning Einstein’s relativity theories, BrownWalker Press, 2005, p. 15-22.

5. A. Einstein, Sidelights on Relativity, Dover, 1983 (1922), p. 23-4; Ludwik Kosto, en: Franco Selleri (ed.), Open Questions in Relativistic Physics, Apeiron, 1998, p. 131-9.


Longitud, tiempo y masa

Para hacer que la velocidad de la luz sea constante con respecto a todos los observadores, la teoría de relatividad especial por Einstein manipula el espacio y tiempo. Esta es una distinción crucial entre aquélla y el postulado de Lorentz: según éste último, los relojes y normas que utilizamos para medir distancia y tiempo se ven afectados por el movimiento a través del éter, mientras Einstein afirmaba que espacio y tiempo se expanden o contraen (1).

Transcurrió más de un decenio antes que la tesis de Albert fuese aceptada a nivel masivo y suplantara a su precursor. Una editorial en Scientific American declaró en 1921 que el considerando relativista especial "nunca se elevó a una posición de gran envergadura en la teoría matemática, simplemente porque en sí reviste poco interés ante su nula extensión al caso general. Es sólo una muestra llamativa de especulación abstracta" (2).

Además de Lorentz, otros ganadores del Premio Nobel que se opusieron a Einstein incluían a Planck, Michelson, Ernest Rutherford y Frederick Soddy. Louis Essen escribió: "Por cuanto se piensa que la teoría [de Einstein] explica el resultado del experimento por Michelson-Morley, me inclino a estar de acuerdo con Soddy en que se trata de un fraude, y no creo que Rutherford lo considerara una broma si se hubiera dado cuenta de cómo retrasaría el desarrollo racional del quehacer científico" (3).

Muchos estudiosos alegaron arbitrariedad y carácter ad hoc cuando Lorentz desarrolló por primera vez el concepto de contracción en longitud para desentrañar el resultado de Michelson-Morley, y admitió que había llegado a sus ecuaciones por ensayo y error. Cabe señalar que nunca se ha medido la contracción de longitud en modo experimental, y además un objeto difícilmente podría constreñirse en su dirección de movimiento sin sufrir cambios en ninguna de sus otras dos dimensiones.

En cuanto a la dilatación del tiempo o desfase en relojes, el experimento Hafele y Keating de 1972 comprobó que un reloj atómico transportado alrededor del mundo y hacia el este perdió 59 nanosegundos, mientras que otro en dirección opuesta adquirió 273, aunque desde entonces se descubrió que las resultantes manipuladas y conocidas tienen poca semejanza con los datos sin procesar. Si bien generalmente se interpreta dicho testeo como "verificación de la relatividad especial", descartó el supuesto de que dos observadores en movimiento relativo encontrarían que cada uno de sus relojes funcionaba más lento (4). Del mismo modo, se cree que si dos gemelos se desplazan por separado a través del espacio a una velocidad uniforme entre sí, cada uno terminará más joven que el otro, siendo éste uno de los absurdos o "paradojas" en la relatividad por Einstein. Los partidarios suelen decir que si uno de ellos regresara a la Tierra, sólo él envejecerá más lentamente, pero tienen supuestos contradictorios sobre por qué ocurriría; algunos invocan la aceleración, mientras otros dicen que es irrelevante (5). Tras revisar 54 explicaciones, Al Kelly concluye: "Las revistas parecen estar hambrientas de cualquier artículo que respalde el menor envejecimiento del viajero, sin importar cuán estúpidas sean las razones ofrecidas" (6).

Hafele admitió que los relojes móviles no operan más despacio por la cantidad propuesta según la transformación de Lorentz (factor gamma). Al contrario de la relatividad especial, dicho atraso es una función de su rapidez vinculada al centro rotativo planetario, lo cual también se demuestra mediante los dispositivos cronológicos transportados por satélites que forman parte del Sistema de Posicionamiento Global (GPS). Obviamente, no se prueba que el tiempo en sí mismo "se ensanche" o "disminuya" con los "frenazos" del reloj, ni con el hecho de que aminora la tasa de desintegración radiactiva de los mesones cuando se desplazan a alta velocidad; así, es más lógico suponer que el movimiento afecta los procesos internos de partículas y átomos. Todos los artilugios cronométricos utilizados están sujetos a errores cuando aceleran, enlentecen o transitan por campos gravitacionales con distintas fuerzas.

Si las partículas son aceleradas a velocidades ultra-altas, se hace cada vez más difícil aumentar ese factor, de modo que nunca alcancen la rapidez lumínica (c). Su inercia de crecimiento exponencial -a medida que se aproxima a dicha mensura- generalmente es atribuida a la transformación de su energía cinética acrecentada en masa inercial. Es discutible si su materia aumenta o no en la práctica, pero lo concreto es que sube la energía total que debe acelerarse pari passu con la velocidad, y no se requieren ideas "relativistas" para comprender esto (7). Tom Van Flandern escribe:

"Independiente de cuánta energía se agregue, no podemos hacer que las partículas alcancen o excedan c. Sin embargo, lo mismo es cierto para un avión impelido por hélice en vuelo nivelado que intenta rebasar la velocidad del sonido. Las moléculas de aire no pueden ser conducidas más rápido que ella, y sin importar cuán vigorosamente giren las hélices, pues aquélla jamás podrá ser superada. Sin embargo, una fuerza más veloz que el desplazamiento sónico, o una aceleración continua como la propulsión a chorro, podría lograr el objetivo no logrado por esas hélices. De manera análoga, una fuerza con mayor rapidez que la luz -como la gravedad- debería ser capaz de conducir un cuerpo hacia la barrera de velocidad lumínica y traspasarle, a pesar de que las injerencias como aquéllas en los aceleradores de partículas están limitadas a extenderse y empujar la velocidad lumínica" (8).


Referencias

1. Tom Van Flandern, en Open Questions in Relativistic Physics, p. 81-90; "Relativity with flat spacetime", Meta Research Bulletin, 3:1, 1994, p. 9-12; "The speed of gravity – what the experiments say", Meta Research Bulletin, 6:4, 1997, p. 59-61.

2. Citado en Ian McCausland, "The Einstein mystique", Journal of Scientific Exploration, 17:4, 2003, p. 715-32.

3. L. Essen, "Relativity – joke or swindle?", Electronics and Wireless World, 94, 1988, p. 126-7.

4. Al Kelly, Challenging Modern Physics: Questioning Einstein’s relativity theories, BrownWalker Press, 2005, p. 31-4, 265-78; J.P. Claybourne, "The full impact of the Hafele/Keating experiment", Infinite Energy, 12:70, 2006, p. 18-20.

5. Challenging Modern Physics, p. 153-68.
6. Ibídem, p. 279-89.
7. Ibídem, p. 144-6.
8. Tom Van Flandern, "Is faster-than-light propagation allowed by the laws of physics?", 2006.


Movimiento relativo

La relatividad de espacio/tiempo y del movimiento son fundamentales para cualquier inferencia análoga. Sin embargo, estos conceptos tienen diversas interpretaciones, y las ofrecidas por la teoría de relatividad estándar a veces llegan a extremos absurdos. Según el "postulado" de Einstein, si dos cuerpos materiales A y B están en movimiento relativo uniforme, es igualmente correcto decir que "A es estacionario" y "B se mueve", ya que éste último permanece quieto y el primero avanza. La creencia de que el movimiento siempre es relativo a algún marco de referencia "arbitrario" lleva a la afirmación de que, si bien puede ser más conveniente suponer que la Tierra orbita al Sol, ¡no es más cierto que sostener lo contrario! (1). Esto no tiene sentido, pues las observaciones astronómicas sobre aberración estelar de la luz, nutación y paralaje son pruebas concluyentes de que nuestro planeta traslaciona al Astro Rey.

El considerando "albertiano" da pie a contradicciones lógicas: por ejemplo, permite que en un par de relojes cada uno funcione más rápido o lento que el otro, y que la misma varilla de medición se acorte y alargue al mismo tiempo (2). En la idea de Lorentz, esas dilogías no aparecen al postular un éter estacionario-universal, que proporcionaba un estándar absoluto de reposo, permitiendo atribuir el estado de movimiento único a cualquier objeto. Desde un punto de vista teosófico, no existe dicho componente de rasgo homogéneo, sino más bien un número sempiterno de éteres interpenetrantes, cada uno de los cuales es finito, particulado, de densidad variable y posee movimiento; ergo, no hay un nivel de pausa completa.

No obstante y para hablar significativamente del movimiento, no es necesario invocar un éter local como marco de referencia; todo lo que precisamos es un esquema físico o de coordenadas que pueda considerarse relativamente estacionario para fines prácticos, como por ejemplo la Tierra, el Sol, las estrellas "fijas", etc. Tom Van Flandern escribe: "Siempre hemos sabido que podríamos usar la situación y velocidad promedio de todos los cuerpos en una vecindad determinada, como marco de referencia tanto para posiciones como desplazamientos. Y si alguna velocidad excede en gran medida el movimiento de cualquier ítem individual en dicho 'barrio', esa rapidez es detectable y tiene consecuencias físicas. Sólo en ese sentido puede llamarse una velocidad 'absoluta'" (3).


Referencias

1. Asimov's New Guide to Science, Penguin, 1984, p. 357.
2. Ian McCausland, A Scientific Adventure: Reflections on the Riddle of Relativity, Apeiron, 2011.

3. Tom Van Flandern, Dark Matter, Missing Planets & New Comets, North Atlantic Books, 1993, p. 71.


Rotación y relatividad

Desde principios del siglo XX se realizaron experimentos clave que abrieron forados en la teoría de relatividad "einsteniana", al demostrar que la rotación es un estado de movimiento "absoluto" que afecta la velocidad lumínica (c). En 1913, Georges Sagnac, enemigo del considerando relativista, demostró que si los rayos de luz se envían en direcciones opuestas en torno a un disco que gira con velocidad v, el haz que va en sentido contrario viaja en c+v concerniente a un observador en el ítem giratorio, mientras que el haz desplazado en la misma dirección lo hace en c-v (1). Los "albertianos" estaban tan incómodos por este resultado que lo descartaron y fue puesto en ridículo durante casi tres décadas. El autor alemán nunca se refirió al ensayo, y Dean Turner comenta: "Einstein mostró poca disposición a reconocer y acreditar por escrito el trabajo de aquellos científicos cuyos logros experimentales y teóricos amenazaban la validez de su teoría (...) y por lo tanto, la base de su apoteosis pública" (2).

Hoy el "efecto Sagnac" está reconocido por numerosas pruebas con enorme exactitud; de hecho, forma la base del moderno giroscopio de anillo láser, ampliamente utilizado para la navegación en barcos, submarinos, aviones y satélites. En 1925, Michelson, Gale y Pearson hicieron un testeo a mayor escala que detectó un cambio en la velocidad lumínica, generado por la propia rotación de la Tierra (3), un producto que también se repitió desde entonces con alta resolución. Los intentos por relativistas ortodoxos para explicar esos hallazgos invocando "dilatación del tiempo" y "arrastre de espacio-tiempo" constituyen sólo engaños (4) y hoy tienden a evitar cualquier mención de ellos.

Además, han habido ensayos con el Sagnac planetario: utilizando el sistema de retransmisión por satélite GPS, se encontró que las señales electromagnéticas viajan a c+v de este a oeste y c-v en sentido contrario, donde v es la velocidad de rotación planetaria (5). En 1979, Brillet y Hall informaron sobre un experimento de tipo Michelson-Morley con láser, pero 4000 veces más sensible, que nuevamente no detectó cambios significativos en la velocidad de la luz producida por el movimiento linear terrestre a través del espacio; sin embargo, sí percibió una señal "persistente y espuria" que coincidía con la rapidez rotativa del planeta, como se demostró más tarde (6). En 2003, Wang descubrió que el efecto Sagnac también se aplica al movimiento en línea recta: la luz formada en un objeto con dicho avance uniforme viaja en c+v contra la dirección del movimiento del ítem, y c-v con el derrotero del mismo (7).

Vimos que un resultado nulo para el test por Michelson-Morley es consistente con la presencia de un éter estacionario sólo si suponemos que la Tierra arrastra consigo a aquél en su proximidad. Dependiendo de las conjeturas, varios especialistas proponen que la eterosfera circundante al planeta no gira en absoluto o lo hace un poco más lento que él. La evidencia experimental también es compatible con una eterosfera dinámica que rota más rápido, lo que hace que nuestro "hogar azul" gire y la lleve hacia adelante en su órbita alrededor del Sol, a tenor de las sugerencias por Wilhelm Reich. Asimismo, las dinámicas vorticulares del éter en escalas cada vez mayores podrían explicar los movimientos rotatorios y traslacionales de sistemas solares, galaxias, etc. (8).


​Referencias

1. R. Hazelett y D. Turner, The Einstein Myth and the Ives Papers, Devin-Adair Co., 1979, parte 3, p. 247-51.

2. Ibídem, parte 1, p. 87.
3. Ibídem, parte 3, p. 253-6.
4. Al Kelly, Challenging Modern Physics: Questioning Einstein’s Relativity Theories, BrownWalker Press, 2005, p. 34-71; Paulo N. Correa y Alexandra N. Correa, "The Sagnac and Michelson-Gale-Pearson experiments: the tribulations of general relativity with respect to rotation", Infinite Energy, 7:39, 2001, p. 32-49.

5. Challenging Modern Physics, p. 101, 107.
6. Harold Aspden, "Laser interferometry experiments on light-speed anisotropy", Physics Letters, v. 85A, 1981, p. 411-14; Harold Aspden, "Relativity and rotation", 1983.

7. Challenging Modern Physics, p. 55, 117, 122.
8. "Eterometría y gravedad: una introducción", apartado 6.


​Velocidad de la luz

Las investigaciones descritas contradicen claramente uno de los dogmas fundamentales de la relatividad estándar: que "la velocidad de la luz es igual en todas direcciones y para todos los observadores, así como independiente del movimiento de la fuente luminosa o aquél del receptor". Los resultados obtenidos por E.W. Silvertooth y S. Marinov también cuestionan esa premisa, pues midieron una irregularidad en el fenómeno que, de acuerdo a sus conclusiones, fue causada por el movimiento galáctico de la Tierra y el Sistema Solar en dirección del asterismo de Leo (1).

Además de las pruebas desfavorables a la constancia universal de la rapidez lumínica proporcionada por estos ensayos, los análisis determinaron que esa magnitud en la superficie planetaria fluctúa, y la radiación electromagnética de diversas frecuencias se mueve con aceleramientos ligeramente distintos; sin embargo, en 1972 se decretó que la velocidad de la luz se fijaría en 299.792,458 +/- 0,0012 km/s. Desde 1928 hasta 1945 se midieron coeficientes hasta 20 km/s más bajos que el actual, pero las mensuras contemporáneas que utilizan la red satelital GPS indican que cualquier cambio en dicha rapidez no puede ser mayor a 12 metros por segundo (2).

Algunos científicos sostienen que la luz es una perturbación de onda transmitida por el éter, y su velocidad de onda variaría dentro de ciertos límites de acuerdo con la densidad del medio etérico, es decir, cuanto menor sea ésta, mayor es la rapidez. La densidad del éter es proporcional a aquélla de cualquier sustancia física que ocupe el área del espacio en cuestión, y esto explica por qué en nuestro planeta la luz se ralentiza comparativamente en vidrio, agua o aire en relación al vacío. La Teosofía enseña que la aceleración luminosa sobre nuestra atmósfera es más rápida que dentro de ella (3), pues el éter que rodea la superficie terrestre es más grueso que el interplanetario o interestelar. La evidencia de que la luz "se frena" en áreas etéricas más compactas, como alrededor de grandes masas, es proporcionada por el retraso temporal medido cuando los impulsos de radar rebotan en planetas internos.

Los relativistas propusieron la existencia de partículas llamadas "taquiones" que siempre viajan más rápido que la luz. Conforme a ello, su longitud y tiempo adecuados serían guarismos imaginarios (es decir, un número que al cuadrado produce un número negativo), lo que incluiría su masa, vigor e impulso; su velocidad disminuye a medida que absorben más energía, y asimismo pueden "ir hacia atrás en el tiempo". Como es obvio, han sido infructuosos los experimentos para detectar corpúsculos con estos rasgos imbéciles.

De vuelta al mundo real, los testeos Sagnac demostraron hace mucho tiempo que son posibles aceleraciones superiores a la lumínica; además, las partículas cargadas pueden pasar a través de un medio ópticamente transparente con velocidades mayores a la luz en ese entorno, produciendo radiación Cherenkov, a su vez análoga a la onda de choque producida (estallido acústico) cuando una aeronave vuela más rápido que el sonido. No pocos investigadores argumentan que la fuerza gravitacional debe tener mayor propagación que la luz, pues de lo contrario las órbitas planetarias decaerían lenta y notablemente (4).

En ocasiones se afirma que "algo va hacia atrás en el tiempo si supera la rapidez lumínica", pero la dirección cronológica está definida por la secuencia de causa-efecto, y dado que las resultantes no podrían generar causas, es absurdo decir que "el tiempo se invierte". Si un objeto se moviera desde el punto A al B más velozmente que la luz, es cierto que los observadores en B lo verían llegar ahí antes de presenciar su salida desde A, y parecería desplazarse "en reversa". Esto se debe a que sus exámenes dependen de la luz, que no podría seguir el ritmo del objeto en cuestión, pero si las realizaran por parámetros superluminales que incluso van más rápido que ese ítem, todo volvería a parecer normal y verían que se mueve desde A hacia B. Aunque es imposible viajar literalmente al pasado o futuro, sí es factible ver por clarividencia imágenes de eventos pretéritos e impresas en la sustancia invisible de la Naturaleza, como también las "sombras" de probables hechos venideros que ya se forjan en el presente.


​Referencias

1. E.W. Silvertooth, "Motion through the ether", Electronics and Wireless World, 96, 1989, p. 437-8; E.W. Silvertooth y C.K. Whitney, "A new Michelson-Morley experiment", Physics Essays, 5:1, 1992, p. 82-9; J.P. Wesley (ed.), Progress in Space-Time Physics, Benjamin Wesley, 1987, p. 1-35; Pari Spolter, Gravitational Force of the Sun, Orb Publishing Co., 1993, p. 36-7.

2. Rupert Sheldrake, Seven Experiments that Could Change the World, Fourth Estate, 1994, p. 178-82; William R. Corliss (comp.), Mysterious Universe, Sourcebook Project, 1979, p. 690-4; Callum Coats, Living Energies, Gateway Books, 1996, p. 24-5; Tom Van Flandern, en Open Questions in Relativistic Physics, p. 81-90.

3. The Mahatma Letters to A.P. Sinnett, TUP, 2da ed., 1926, p. 166-7/TPH, ed. cron., 1993, p. 322-3.

4. Tom Van Flandern, "The speed of gravity – what the experiments say", Physics Letters A, v. 250, 1998, p. 1-11; Paulo N. Correa y Alexandra N. Correa, "The gravitational aether, part II: Gravitational aetherometry (7) – Antigravity lift and exotic flight (II): critical overview of theories and technologies", monografía AS3-II.9, Akronos, 2006, sección 3.


Espacio y tiempo vs. espacio-tiempo

En lo que concierne a la relatividad del espacio (o más bien distancia) y el tiempo, es cierto que el orden cronológico percibido y la duración de eventos o lapso aparente entre ellos dependen del estado de movimiento que tenga un observador en relación con esos hechos. Por ejemplo, si consideramos dos incidentes A y B (donde el primero genera y precede al segundo), es muy posible que algunos vean a ambos ocurrir simultáneamente, o incluso después de B. La ausencia de fiabilidad en nuestras percepciones se debería a que están sujetas a los datos que nos llegan a la velocidad de la luz, pero va más lejos al sostener -como hizo Einstein- que no existe una secuencia real de eventos, o que la noción de simultaneidad carece de significado. El Sistema de Posicionamiento Global prueba que todos los relojes atómicos a bordo de satélites en órbita, que se mueven a altas velocidades y diferentes direcciones, pueden sincronizarse continuamente entre sí y con todos los relojes terrestres; de este modo, no necesitamos correcciones de "paralelismo relativo" como exige la hipótesis "einsteniana" (1).

Como verdad axiomática, todo lo que acontece en cualquier parte del Universo sucede ahora; por ello, todos los hechos son simultáneos y es irrelevante que nuestros sentidos no siempre nos permiten observar instancias isocronas. En este caso, sí existe un tiempo universal o "absoluto", pero Einstein negó que pueda atribuirse un significado tal a la idea de "presente", diciendo que "para el mundo espacialmente extendido, el 'ahora' pierde su acepción objetiva" (2). Esto lleva a pensar que, en cierto modo, el tiempo se "despilega" como el espacio para que pasado, presente y futuro existan con el mismo estatus. En la teoría de relatividad estándar, la historia de un objeto se describe mediante una línea trazada en cuatro dimensiones desde el principio hasta el final de su existencia, mas la línea no llega a existir punto por punto. Si esto se toma literalmente, significaría que un cuerpo no puede considerarse ubicado en un sitio particular del espacio o el tiempo, que no existe una secuencia en tiempo real o sucesión de hechos, y el cambio evolutivo es imposible.

Siguiendo a Minkowski, Einstein fusionó espacio y tiempo en lo que sus críticos denominan "la monstruosidad llamada espacio-tiempo". En este continuo abstracto de cuatro dimensiones, el tiempo se trata como una longitud negativa, y los metros o segundos se suman para producir un "evento" (3). A cada punto de esta unidad se asignan cuatro coordenadas que según Albert "no tienen la menor importancia física y directa", afirmando que sus ecuaciones de campo -cuya derivación requiere muchas páginas de operaciones matemáticas abstractas- privan al espacio y tiempo de "la última huella de realidad objetiva". Este concepto tiene algunas características bastante extrañas: por ejemplo, se cree que si un pulso lumínico viaja desde el punto A al B, la distancia de cuatro dimensiones entre ellos es cero, ¡e independiente de qué tan separados se encuentren en el espacio!

Es innegable que cada acontecimiento debe ocupar una región espacial y advenir en determinado periodo, y bajo esa óptica, ambos parámetros están unidos. Sin embargo, esto no altera el hecho de que son aspectos muy diferentes y no intercambiables: el espacio es sustancia, o éteres dentro de otros, mientras que el tiempo es un concepto nacido del cambio/movimiento, y por lo tanto muestra una sucesión de causa-efecto. Hablando estrictamente, el tiempo no es una entidad que "fluye", ya sea de manera uniforme e independiente de todo lo demás, como sostuvo Newton, o a distintas velocidades para múltiples observadores en la visión de Einstein. Aunque el "tiempo en sí mismo" no puede acelerar ni disminuir la rapidez, los instrumentos para medir aquél pueden operar más rápido o lento bajo ciertas condiciones. Y ciertamente, nuestra conciencia del paso cronológico depende del estado de ánimo o lucidez. El tiempo y la distancia se vinculan en el sentido de que los opuestos como "rápido/lento", "grande/pequeño" o "largo/corto" no tienen un significado absoluto, y los medios o procesos utilizados para calibrar o definir unidades en aquellas magnitudes nunca pueden ser absolutamente inmutables.

El espacio infinito no puede expandirse o contraerse, ni experimentar curvamientos o deformaciones; en su lugar podría ser estacionario, si bien estrictamente no diríamos que el espacio ilimitado, en cuanto abstracción, tenga o no alguna forma de desplazamiento. En la medida que no haya nada fuera de aquél para ser relativo, entonces se denominaría como "absoluto". El destacado astrónomo y físico británico Herbert Dingle señaló que la teoría especial de relatividad, como se expuso en 1905, "se refiere a aspectos concretos y observables: relojes, instantes, duraciones, distancias y eventos; es totalmente independiente de todas las concepciones de la naturaleza del espacio y la 'eternidad'. Se trata de los nexos entre objetos apreciables en diversos 'sistemas de coordenadas'" (4). Las conclusiones "genéricas" sobre la índole de espacio y tiempo, atañentes al postulado de Einstein, son producto de especulaciones filosofastras, y tampoco se siguen de los hechos empíricos con que trata la teoría. Aunque el físico alemán rechazó los conceptos clásicos de espacio y tiempo "absolutos", en ocasiones sus ideas asumieron dicha existencia y las mezcló con el concepto mutuamente contradictorio de "espacio-tiempo curvo" (5).


​Referencias

1. Tom Van Flandern, Meta Research Bulletin, 6:4, 1997, p. 61.
2. Citado en Pari Spolter, Gravitational Force of the Sun, Orb Publishing Co., 1993, p. 22.

3. Paulo N. Correa y Alexandra N. Correa, "Consequences of the null result of the Michelson-Morley experiment", Infinite Energy, 7:38, 2001, p. 47-64 (p. 58-60); Gravitational Force of the Sun, p. 29-30.

4. Herbert, Science at the Crossroads, Martin Brian & O’Keeffe, 1972, p. 137.
5. Gravitational Force of the Sun, p. 34-6, 58-9.


Espacio deformado, lógica deformada

No existe evidencia real sobre la curvatura del espacio (1). Podemos hablar de líneas ondeadas, caminos y superficies en él, pero afirmar su capacidad de arquearse no tiene sentido a menos que se añada una cuarta dimensión, por lo cual esto no pasa de ser una "quimera matemática". En la teoría general de relatividad, la injerencia gravitacional no está definida como una fuerza que se propaga, sino es resultado de masas que distorsionan el "tejido del espacio-tiempo" en sus proximidades de una manera inexplicable. Por lo tanto, en lugar de ser atraída por el Sol, la Tierra seguiría el equivalente más cercano de una línea recta disponible a través del espacio-tiempo curvo alrededor de esa estrella. Del mismo modo, los objetos en nuestro planeta tendrían peso porque "el tiempo se dobla" y "el espacio adquiere deformación". Claramente, este modelo geométrico abstracto no puede etiquetarse en ningún contexto como "explicación" de la gravedad (3).

Se dice que la relatividad general aclara los siguientes aspectos:

a) El desplazamiento al rojo gravitacional: los críticos manifiestan que no hay una base creíble para decir que el cambio en la longitud de onda lumínica que emerge de un campo gravitacional sea una prueba de "dilatación del tiempo".

b) La curvatura gravitacional de la luz: la combadura de los haces, a medida que pasan por un cuerpo masivo como el Sol, de ninguna manera demuestra un continuo espacio-temporal de cuatro dimensiones que se curva en las proximidades de un objeto análogo.

c) Rotación del perihelio: se dice que la teoría de relatividad predice el avance excesivo en el perihelio de la órbita de Mercurio. Su valor se estableció anteriormente en unos 43 segundos de arco por siglo, y esta fue también la cifra calculada por Einstein, aunque sólo tras haber modificado sus ecuaciones de campo originales porque dieron el índice erróneo, pero desafortunadamente para él dicho cociente se redujo a 39,54 segundos. La mecánica celeste clásica representa el resto del movimiento absidal (aproximadamente 5.560 segundos de arco/centuria), y además la hipótesis relativista supone una curvatura uniforme del espacio alrededor de un cuerpo celeste, sin explicar por qué las órbitas planetarias son elípticas en lugar de círculos perfectos. Asimismo, esta teoría justifica sólo una sexta parte del avance en el perihelio de Marte y no da cuenta del movimiento anómalo de los nodos en Venus (4).

Estos tres fenómenos pueden explicarse con la presencia del éter, dado que la densidad en él se incrementa alrededor de ítemes grandes como estrellas y planetas. Tom Van Flandern sostiene: "Su comportamiento sigue las leyes refractivas de la luz que se mueve a través de un medio con mayor compacidad: la propagación se ralentiza, las direcciones de ésta última se pliegan y las longitudes de onda tienen desplazamiento hacia el rojo. Es por eso que (...) la luz se inclina cerca del Sol, las señales de radar enviadas a planetas reducen los tiempos de ida y vuelta, e igualmente la luz que escapa de un campo gravitacional tiene corrimiento al rojo. El modelo de refracción también puede predecir exactamente el avance del perihelio de Mercurio, como se sabe desde los tiempos de Eddington" (5).

Se ha dicho que "Einstein fue un genio al llegar a prenuncios sorprendentemente audaces y correctos por medio de teorías equivocadas" (6). En 1916 y sobre la base de su dogma referente a la rapidez lumínica constante y el espacio-tiempo curvado, dijo que la luz estelar que pasaba cerca de los bordes solares se doblaría en dos veces la cantidad establecida por Newton. Las observaciones hechas durante el eclipse de 1919 fueron aclamadas por los "albertianos" como confirmación de ello y Einstein se convirtió en celebridad mundial de un momento a otro. Ahora se admite, sin embargo, que las mensuras fueron muy inexactas para justificar tal conclusión; el propio Stephen Hawking declaró que se debieron a "pura suerte, o bien conocían el resultado que deseaban lograr" (7).

Ian McCausland comenta: "Una consecuencia desafortunada en el anuncio de este éxito [ha sido] un culto excesivo de Einstein (...). Como resultado, el mayor desprecio de la comunidad científica se reserva para quienes intentan criticar cualquier teoría relativista o sugiera alternativas, y muchas publicaciones convencionales rechazan artículos disidentes, sin hacer ninguna revisión" (8). Einstein confesaba en 1921 que "es simplemente grotesco el contraste entre el aprecio popular de mis facultades o logros, y la realidad" (9).

Herbert afirma que, si bien desde 1904 hasta 1919 el postulado relativista se atribuyó generalmente a Lorentz, "(...) llegó el clímax final con el aparente éxito en 1919 de la teoría general por Einstein, con su entonces nuevo y aterrador arsenal matemático de cálculo tensorial. Casi de la noche a la mañana, la 'relatividad según Lorentz' se convirtió en aquélla 'especial de Einstein', y los expertos la aclamaron de inmediato como tal. Los físicos establecidos (...) abandonaron sus intentos racionales de comprender todo el asunto, y consintieron pasivamente cualquier absurdo obvio que los matemáticos les presentaran. Tenían la aparente excusa de que las ecuaciones 'funcionaban'" (10).

Pari Spolter caracteriza la relatividad einsteniana como "ciencia ficción o pseudociencia (...). Las matemáticas, que constituyen el área con más progreso, deberían usarse para inspeccionar observaciones y datos experimentales, no crear una nueva ciencia física basada en ecuaciones sin base real" (11). Al Kelly añade: "La hipótesis de relatividad asumió el estatus de una religión cuyos misterios se deben creer sin cuestionar. ¿Por cuánto tiempo podrán las estupideces soslayar el sentido común?" (12).

Vimos con anterioridad que el considerando estándar es ilógico y contradictorio; interpreta la relatividad de tiempo, espacio y movimiento en una forma que niega cualquier realidad objetiva y universal detrás de nuestras observaciones imperfectas; afirma que la velocidad lumínica en nuestro mundo representa un límite y constante absolutos en toda la naturaleza universal; tampoco reconoce que el espacio debe ser infinito, como el rango de escala entre los mundos y seres que le componen, e ignora la posibilidad de niveles internos compuestos por estados no físicos de energía-materia.


Referencias

1. Pari Spolter, Gravitational Force of the Sun, Orb Publishing Co., 1993, p. 34, 58, 60, 82-3; I.W. Roxburgh, "Is space curved?", en: R. Duncan y M. Weston-Smith (eds.), The Encyclopaedia of Ignorance, Pergamon, 1977, p. 85-9.

3. Ver la serie "Gravedad y antigravedad".
4. Gravitational Force of the Sun, p. 40-67.
5. Tom Van Flandern, Dark Matter, Missing Planets & New Comets, North Atlantic Books, 1993, p. 59, 62-5.

6. R. Hazelett y D. Turner, The Einstein Myth and the Ives Papers, Devin-Adair Co., 1979, parte 1, p. 83.

7. Stephen W. Hawking, A Brief History of Time, London: Bantam Books, 1989, p. 35.

8. Ian McCausland, "Anomalies in the history of relativity", Journal of Scientific Exploration, 13:2, 1999, p. 271-90.

9. Infinite Energy, 13:2, 1999, p. 8.
10. Herbert Dingle, Science at the Crossroads, Martin Brian & O’Keeffe, 1972, p. 95.
11. Gravitational Force of the Sun, p. 98.
12. Al Kelly, Challenging Modern Physics: Questioning Einstein’s relativity theories, BrownWalker Press, 2005, p. 174.


Unificación

Einstein no consideró la relatividad general como una labor "terminada", y estaba muy consciente del contrasentido entre la teoría cuántica (con sus cuantos discontinuos) y la que lleva su nombre (de campos continuos). Pasó los últimos 40 años de vida intentando extender las nociones geométricas de relatividad para incluir vínculos electromagnéticos y amalgamar las leyes de gravitación y electromagnetismo en un concepto de "campo unificado". Muchos otros matemáticos también trabajaron en ese tema, y algunas de sus ideas introdujeron una quinta dimensión. Aunque ninguno de dichos ensayos fue exitoso, el desarrollo de una teoría unificada continúa motivando a muchos científicos contemporáneos.

El físico teórico Stephen Hawking, quien se supone era el mayor "genio" desde Einstein, profetizó que una hipótesis del Universo completamente integral "podría encontrarse a fines del siglo XX". John Gribbin, divulgador de ortodoxia científica, declaró en 1986 que se estaba cumpliendo el sueño de que algún día pudiera explicarse el origen y la evolución de la vida y el Cosmos, y así "los metafísicos se quedarían sin trabajo" (1).

Algunos estudiosos creen que la premisa de "supercuerdas" es una "etapa relevante" hacia una comprensión del todo, "buscando unir espacio, tiempo y materia, y construirlos a partir de vibraciones de bucles submicroscópicos de cuerdas invisibles [unidimensionales], que habitan un universo imaginario de diez dimensiones" (2). En esta noción, que carece de fundamento empírico, se supone que las seis magnitudes espaciales supletorias se minimizaron a "agujeros de gusano" con 10-33 cms. en diámetro. Tales ideas indican cuán surrealista, si no grotesca, puede llegar a ser la especulación desenfrenada. A tenor mordaz de algunos teósofos, ésta última y la hipótesis científica se están volviendo tan metafísicas en ciertos aspectos, que no sólo empiezan a combinarse en detalles específicos con las enseñanzas esotéricas, sino que en ocasiones realmente se cruzan y salen por la tangente.

La pretendida unificación nunca se logrará mezclando chocarrerías matemáticas con la realidad. El progreso genuino necesita un esfuerzo serio para investigar y comprender el éter, en cuanto agente unificador y subyacente a todas las manifestaciones tangibles de materia, fuerza y energía, incluyendo una serie de anomalías olvidadas. Y precisamente en 1941, un hombre llamaba la atención de Einstein...


​Referencias

1. John Gribbin, In Search of the Big Bang, Bantam Books, 1986, p. 41, 392.
2. Paul Davies y John Gribbin, The Matter Myth, Simon & Schuster/Touchstone, 1992, p. 14.


Einstein vs. Reich

Wilhelm Reich descubrió una forma universal de energía etérea no electromagnética, a la que llamó "orgón", mostrando que podía detectarse de forma óptica, térmica y electroscópica por medio de contadores de radiación en atmósfera, suelo, sistemas bióticos y el vacío. Asimismo, era susceptible de concentrarse en recintos cubiertos de metal o acumuladores de orgón (ORAC), y su almacenaje se incrementaría rodeando la caja metálica interior con varias capas alternas de conductores y aislantes.

A principios de 1941 Reich tuvo dos encuentros con Einstein para discutir su hallazgo de que la temperatura en la parte superior de un ORAC era significativamente más alta (hasta 2° C) que en el aire ambiental. Albert reaccionó diciendo que, si era reproducible, esta irregularidad sería "como una bomba en física", pues de acuerdo con la segunda ley de termodinámica, se supone que la energía térmica sólo se disipa y no hay acumulación espontánea. Reich le dejó un ORAC para realizar las mediciones por sí mismo, y una semana después escribió a Wilhelm diciendo que había confirmado la disrupción calórica. A pesar de ello y tomando el consejo de su ayudante Leopold Infeld, descartó el fenómeno como un "engaño" causado por corrientes normales de convección interior; Reich contestó llevando a cabo más pruebas al objeto de impugnar esta "explicación" trivial, pero para Einstein el problema estaba cerrado.

Durante los siguientes 60 años, el experimento no fue mencionado por físicos convencionales y varios "reichianos" lo imitaron exitosamente, pero nunca bajo condiciones de estrictez suficiente. No obstante, los canadienses Paulo y Alexandra Correa informaron de un ensayo riguroso en 2001, verificando que incluso en las condiciones más desfavorables persiste una leve anomalía térmica pero significativa, lo que apunta a la presencia de un flujo anómalo de energía no térmica (1): "De este modo, la objeción por Infeld se muestra fácil, y la indecisión de Einstein entre su entusiasmo por los argüendos de Reich y su aceptación apresurada de ese reparo, nos deja con el sentimiento de que los grandes hombres son solo ídolos de mediocres". Einstein declaró una vez que la termodinámica clásica "jamás sería derrocada", e irónicamente sí se derrumbó justo frente a sus narices, pero estaba ciego a la evidencia.

Sin embargo, mientras Einstein gozaba de fama, Reich fue perseguido y tildado de "fraude". En 1956 la Administración Federal de Alimentos y Medicinas (FDA) obtuvo una orden judicial que aseguraba la "no existencia" del orgón, mandando destruir todos los materiales con discusiones pormenorizadas sobre el asunto, e igualmente se estimulaba a desmantelar o eliminar dispositivos relacionados. La FDA incineró todos los libros de Reich que mencionaban el orgón, tal como los nazis hicieron con sus obras en la década de 1930. Wilhelm luego fue encarcelado por desobediencia a la corte y murió en prisión durante 1957, al tiempo que dicha organización continuó haciendo desaparecer sus textos hasta principios de los años sesenta.


Referencias

1. Paulo N. Correa y Alexandra N. Correa, "The reproducible thermal anomaly of the Reich-Einstein experiment under limit conditions", Infinite Energy, 7:37, 2001, p. 12-21; Paulo N. Correa y Alexandra N. Correa, "The thermal anomaly in ORACs and the Reich-Einstein experiment: implications for blackbody theory", monografía ABRI S2-05, aetherometry.com.


La ciencia del futuro

Sobre la base del trabajo experimental y pionero de Reich, los Correa desarrollaron un modelo minucioso para el éter dinámico, y también aplicaciones tecnológicas como sus reactores patentados de generación eléctrica mediante descarga anormal e incandescente por pulso (PAGD), y su motor etérico autosustentable que incluso puede funcionar extrayendo bioenergía directamente desde el cuerpo humano. Al igual que otros estudiosos, demostraron que la gravedad puede controlarse por medios electromagnéticos.

Eugene Mallove fue testigo de ello y examinó algunos inventos destacados de los Correa: "(...) esto no es mucho más de lo que afirman los físicos convencionales cuando hablan de 'materia/energía oscura', 'quintaesencia cósmica' o similares, que comprenden la mayor parte del Universo. La principal diferencia es que los Correa proporcionan testeos concretos, susceptibles de falsificación e in situ para apoyar sus conjeturas. En la tradición de los famosos experimentos gedanken [pensamiento] de Einstein que retrasaron tanto la física, hoy sus especuladores ortodoxos de 'teorías integrales' construyen nociones matemáticas cada vez más cercanas al esoterismo (por ejemplo, las célebres 'cuerdas'), de las cuales casi ninguna se puede comprobar con experimentos" (1).

Desde la segunda mitad del siglo XIX, muchos investigadores han venido desarrollando aparatos de "energía libre" en un tipo u otro (2). Mientras algunos buscan una explicación en el éter, otros prefieren sendas menos radicales como el "campo de punto cero electromagnético" (ZPF) o la "energía de vacío" postulada en la hipótesis cuántica. Sin embargo, el ZPF no puede explicar las anomalías detectadas por los Correa y otros, señalando así a un continuo subcuántico de energía no electromagnética.

Una vez que los científicos logren dejar su apego por abstracciones matemáticas irracionales, el estudio del éter los mantendrá ocupados durante muchos milenios, pero al contrario de lo que creen ciertos especialistas en ese nuevo ámbito, incluso el éter de la física no es el "nivel inferior" de realidad, sino un puente hacia reinos más profundos de sustancia espiritual.


​Referencias

1. Eugene F. Mallove, "Aether science and technology", Infinite Energy, 7:39, 2001, p. 6-11.

2. Keith Tutt, The Search for Free Energy: A scientific tale of jealousy, genius and electricity, Simon & Schuster, 2001; Jeane Manning, The Coming Energy Revolution: The search for free energy, Avery, 1996; "The energy future", sección 7, davidpratt.info.