Mostrando entradas con la etiqueta Mala ciencia. Mostrar todas las entradas
Mostrando entradas con la etiqueta Mala ciencia. Mostrar todas las entradas

20 de noviembre de 2024

Otros problemas con la tectónica de placas

David Pratt, New Concepts in Global Tectonics Newsletter
n° 21, p. 10-24, diciembre 2001

​Respuesta a los comentarios de Paul Lowman 
(NCGT Newsletter n° 20).

Contenidos:

01. Geodesia espacial
02. ¿Placas en movimiento?
03. Puntos calientes
04. Edad del lecho marino
05. ¿Dorsales en expansión?
06. Anomalías magnéticas marinas
07. Subducción
08. Referencias


01. Geodesia espacial

Las técnicas geodésicas espaciales, como mediciones láser por satélite (SLR), la interferometría de línea de base muy larga (VLBI) y el sistema de posicionamiento global (GPS), proporcionan datos valiosos sobre la dinámica relativa entre sitios en la superficie de la Tierra, hasta 12.000 kms. de distancia. Se plantea que los cálculos hasta hoy coinciden en general con los movimientos predichos por la tectónica de placas, confirmando así la expansión, subducción y deriva continental del lecho marino.

Paul Lowman (1995, 2001) niega que la geodesia espacial haya demostrado el movimiento de grandes continentes, como América y Eurasia, y afirma que si bien las líneas de base transatlánticas de SLR y VLBI evidencian medros cercanos a los previstos por el tectonismo, no hay suficientes líneas de base intracontinentales para probar la rigidez de placas; a decir verdad, algunas líneas en América del Norte y Europa Occidental presentan una deformación significativa. Lowman sostiene que las raíces hondas de cratones continentales -cuya profundidad la sismotomografía determina en 400 a 600 kms.- hacen imposible que continentes muy vastos se desplacen a la deriva, y excluye los datos paleomagnéticos que apoyan ese arrastre con el tópico de que "no son fiables". No obstante, dice que la expansión del fondo marino se está produciendo en el Atlántico, pero ocurre subducción bajo los márgenes atlánticos pasivos, aunque él semeja estar prácticamente solo en este criterio.

Lowman añade que los métodos de geodesia espacial han verificado movimientos de placas en el Pacífico y sus alrededores: las islas en aquélla del océano homónimo se trasladan hacia Japón a varios centímetros por año; la placa es internamente rígida, y el desplazamiento de Australia también parece inconcuso, aunque con menos certidumbre. El autor piensa que ello corrobora la expansión y subducción del fondo marino en el Pacífico, pero estas inferencias no son rotundas.

La geodesia proporciona una directriz útil para las tensiones y deformaciones de corteza, mas se necesitaría una red inmensa para determinar en qué medida los movimientos son locales, regionales, continentales, oceánicos o de “placa”. El número y la distribución de enclaves SLR y VLBI en todo el mundo son limitados debido al alto costo y la no portabilidad de dichos sistemas, y asimismo la mayoría se encuentra en las placas Norteamericana, del Pacífico y Eurasia. La red GPS tiene un mejor alcance global, pero su cobertura aún es precaria. Otro obstáculo es que los estudios geodésicos espaciales que utilizan puntos de referencia en el lecho marino son bastante más difíciles y onerosos en comparación con los de nivel continental. De igual forma, las mensuras de movimientos verticales son significativamente menos precisas con respecto a las horizontales.

Se dice que las velocidades angulares promedio de placas, deducidas por VLBI y SLR, son un 6% más lentas que las detectadas por el modelo NUVEL-1, que se basa en la escala de tiempo sobre anomalías magnéticas de los últimos tres millones de años. Una revisión de este parámetro a principios de los '90 llevó a la génesis de NUVEL-1A, en que las rapideces angulares promedio son 4,4% más parsimoniosas que en NUVEL-1. Esto aminora la tasa de discrepancia a menos del 2%, aunque algunos investigadores encuentran que los datos VLBI están más de acuerdo con aquel prototipo que NUVEL-1A (DeMets et al., 1994). Sin embargo, estos porcentajes que estriban en marchas angulares de "mejor arreglo" son engañosos y ocultan fallos importantes; existen “graves diferencias entre modelos y coeficientes en la mayoría de los lindes de placas, y en ciertos casos a buena distancia del límite” (Smith y Baltuck, 1993, p. 1).

Los gráficos 1, 2 y 3 muestran las principales disimilitudes que surgen de los datos VLBI, aquéllos SLR para el Pacífico (donde vemos que la rapidez NUVEL-1 para el desplazamiento relativo entre Arequipa e Isla de Pascua es 61% mayor a lo cuantificado), y otros desacuerdos notorios.

Fig. 1. Desemejanzas entre velocidades VLBI y NUVEL-1A. No aparecen los residuales inferiores a 2 mm/año (Centro Espacial Goddard, NASA, http://lupus.gsfc.nasa.gov/global/velocity.html).

Fig. 2. Tasas esféricas SLR seleccionadas para líneas que atraviesan la Cuenca del Pacífico. Los cocientes NUVEL-1 en paréntesis son tramos que cruzan al menos un límite de placa, y todas las cifras están en mm/año (Smith et al., 1994, fig. 4).

Fig. 3. Promedios SLR escogidos en el Atlántico y Pacífico. Los guarismos predichos por AM0-2 y NUVEL NNR-1 están en paréntesis, y las magnitudes se expresan en mm/año (Murata, 1993, fig. 8).

La "rigidez de placas" es un principio central; con todo, se reconoce que es únicamente aproximativo, pues la deformación intraplaca queda de manifiesto por terremotos al interior de placas estables, subsidencias en cuencas continentales medias y levantamiento de superficie sobre el oleaje de puntos calientes en océanos. Se cree que dicho "alabeo" intrínseco y uniforme de la placa Norteamericana llega a unos pocos milímetros por año, pero es más ostensible en la provincia de Basin y Range y otras regiones occidentales de EE.UU. que se consideran parte del límite de esa placa. Se admite que “suele fallar la noción modelada de placas rígidas, no sólo en sus bordes, sino a distancias considerables de éstos últimos” (Smith y Baltuck, 1993, p. 2); por ejemplo, el movimiento previsto en el Pacífico medio tiene un error de 6 a 8 mm/año (Ryan et al., 1993).

Toda vez que hay conflicto entre desplazamientos medidos y predichos, se buscan explicaciones dentro del escenario tectonista. Conforme a la ortodoxia, el polo de rotación NUVEL-1 África-Norteamérica está “increíblemente lejos” (14°) del de la velocidad angular con mayor ajuste; así, esto se atribuye a “errores sistemáticos o ausencia de rigidez significativa de la placa” (Gordon, 1995).

Sobre la base de datos VLBI/GPS de tres sectores en el Caribe, se calculó que la marcha angular del movimiento relativo entre las placas homóloga y Norteamericana exhibía una tasa de 0,23 ± 0,08°/m.a., o el doble del guarismo NUVEL-1A de 0,11 ± 0,03°/m.a.; la dirección era 62,2° N y -93,3° E versus 74,3° N y 153,9° E, y la velocidad angular geodésica estimada no pudo explicar todo el avance en los tres sitios. Las alternativas eran: (1) los lugares no están unidos a una placa rígida común, (2) hay traspiés sistemáticos de medición, ó (3) se subestimaron las incertidumbres de medida (MacMillan y Ma, 1999).

Se descubrió que el polo de rotación derivado de los datos GPS para la placa del Pacífico se encontraba 11,5° al oeste del polo NUVEL-1A, con una rapidez angular 10% más alta, y la "teoría" fue que el movimiento de aquel "trozo" durante los últimos cinco años no estuvo de acuerdo con su trayectoria correspondiente a los últimos 3 millones de años. La velocidad GPS de la isla Baltra (placa de Nazca) es un 50% más lenta (20 ± 5 mm/año) que el valor previsto; los especialistas afirmaron no tener razones, pero creían que la placa estaba deformándose al interior (Larson et al., 1997). Angermann et al. (1999) encontraron que las velocidades GPS de cuatro sitios en la placa nazqueña, en relación con la Sudamericana, son casi 20% más pausadas que las obtenidas por NUVEL-1A y mediciones geodésicas anteriores. Asimismo, varían considerablemente las tasas de convergencia en varios estudios sobre ambas.

El trayecto observado de Arequipa (Andes Occidentales) con respecto a América del Norte es 13 ± 1,5 mm/año con acimut de 55°, mas según las predicciones del modelo debería ser 10 mm/año y 293° (Robaudo y Harrison, 1993). Esta gran disimilitud se adscribe a que una parte del movimiento subductivo se transfiere a una zona de la placa superior, y cerca del 25% del trasiego en las placas Nazca-Sudamérica supuestamente es absorbido por mecanismos sísmicos y de acortamiento en los Andes (MacMillan y Ma, 1999). También hubo discrepancias análogas en otros sectores de arco inverso, siendo interpretadas de igual forma.

El paradigma tectonista sesgó la aptitud de comprender datos geodésicos espaciales con su hipótesis de que las “placas” íntegras deben moverse como "unidades más o menos rígidas". La literatura rebosa de anomalías, inconsistencias y explicaciones ad hoc. Ciertamente ocurre movimiento en zonas sismotectónicas, pero Oard aclara (2000a): “(...) es posible que en algunas áreas el desplazamiento sea en dirección opuesta (...) y esté producido por tectónica vertical en lugar de haber placas debajo de otras" (p. 43). Cita múltiples casos: el arco de Tonga se mueve a oriente por intuito a la placa del Pacífico, que puede considerarse estacionaria (Bevis et al., 1995); el terremoto de Shikotan (1994) hizo que los puntos de referencia GPS al este de Hokkaido se desplazaran al levante en 42 cms. y bajaran otros 60 (Kikuchi y Kanamori, 1995); el terremoto de 8,0 en Antofagasta (1995) trasladó el litoral chileno casi un metro hacia oeste respecto a la placa Pacífico (Klotz et al., 1999), y la vaguada de Timor (fosa al este de Java) semeja continuar inactiva mientras el arco austral de Banda experimenta una prolongación norte-sur (Genrich et al., 1996).

Un breve repaso de otros obstáculos que enfrenta la tectónica de placas proporciona más motivos para cuestionar sus interpretaciones de datos geodésicos.


02. ¿Placas en movimiento?

Muchos libros de geología presentan esquemas de placas uniformemente delgadas (~150 km) y móviles sobre una astenosfera global continua, pero se alejan por completo de la realidad. Tras examinar probanzas de raíces con 400 kms. de grosor bajo cratones estables, Lerner-Lam (1988) concluyó: “Es evidente que nuestro planeta reprobó el ensayo sismológico de 'placas finas'” (p. 51-53), aunque también pudo decir que la tectónica no superó esta prueba.

Los datos geofísicos muestran que la astenosfera entraña lentes desconectados, apreciables sólo en áreas de activación tectónica y alto flujo de calor. En lo esencial, está ausente bajo núcleos continentales antiguos, y si bien las observaciones de ondas superficiales promedio sugirieron que la astenosfera existía universalmente bajo los océanos, las indagatorias sísmicas pormenorizadas sostienen que allí también hay sólo lentes análogas. Existen varios sectores de poca rapidez en el manto oceánico, pero es difícil advertir patrones entre la profundidad de estas zonas y su distancia a la dorsal mesoceánica; por ende, el concepto de "placa litosférica" es nebuloso (Pavlenkova, 1990, 1996).

Lo anterior cuestiona la moda de llamar "límites de placa" a los principales cinturones sísmico-volcánicos y zonas de deformación. Además, la actividad telúrica no siempre se restringe a los mismos lugares, y hace 500 años algunas fronteras se habrían descrito de otra manera. Por ejemplo, ciertos linderos contemporáneos en Asia Menor parecen estar inactivos hace siglos, mientras la actividad sísmica atravesó el centro de lo que constituye la placa actual (James, 1994).

Originalmente se reconocieron unas diez "placas", pero hoy llegan a más de 100 al englobar numerosas microplacas (incluidos terrenos exóticos) para acomodar sitios paleopolares disímiles u otros datos anómalos. Sin embargo, en ocasiones los límites principales están mal definidos o son inexistentes (Oard, 2000a), verbigracia: a) no hay acuerdo sobre la ubicación del linde noreste del Pacífico de las placas homónima, Norteamericana y Eurasia; b) no se sabe cuál es el confín entre la segunda de éstas últimas y la Sudamericana, desde la placa del Caribe al este hasta la Dorsal Mesoatlántica; c) hay problemas para ubicar el término sur entre el segmento caribeño y aquél de América austral, así como la juntura triple con la fracción nazqueña; d) es complejo dilucidar fronteras entre las partes sudamericana, antártica y escocesa; e) las dorsales Atlántica Sur y Antártica no se conectan con aquélla de India Central; f) no hay brecha entre las placas de Filipinas y Pacífico en el borde sureste de la primera; g) existe ambigüedad en el margen entre las secciones Pacífico y Australiana respecto a las fosas de Tonga y Nuevas Hébridas; y h) tampoco hay límite de 20 kms. entre Cocos y Nazca, al este de la Elevación del Pacífico Oriental.

Es claramente inaceptable el considerando de que la superficie planetaria está dividida en “placas” litosféricas y separadas, viéndose rebatido por la creciente necesidad de invocar “límites difusos”, en especial cuando falta un borde preciso. La teoría inicial fue que dichas colindancias eran bastante estrechas, y ahora se piensa que su amplitud puede variar desde unos cientos de metros hasta miles de kilómetros. Gordon y Stein (1992) afirman que el tectonismo “no describe de manera útil la cinemática de muchas zonas de deformación activa”, argumentando que ellas se describen mejor como áreas limítrofes de placas anchas y no a guisa de combadura intraplaca. Se dice que los márgenes dudosos cubren aproximadamente el 15% de la superficie terrestre -aunque algunos de ellos son especulativos- reconociendo que “puede no haber un contraste notorio, sino una gradación en el comportamiento entre el proceso deformante de intraplaca y los límites ambiguos de placa” (Gordon, 1995, p. 243-73).

Fig. 4. Linderos de placas estrechos e imaginarios, velocidades supuestas entre ellas, y regiones litosféricas deformadoras (punteadas) que se etiquetan de "bordes amorfos". Las rapideces se muestran con flechas y su longitud indica el desplazamiento esperable en 25 millones de años (Gordon, 1995, fig. 1).

Lowman dice que Australia puede presentar deriva por su tamaño reducido y estar sobre una placa oceánica, pero los cratones más gruesos y distinguibles sísmicamente son el escudo de Australia Occidental, Canadiense y Báltico-Ucraniano (Anderson et al., 1992). Aparte de los escollos para identificar las fuerzas que se supone cambian de sitio a la placa Australiana junto con la raíz continental de esa isla, existen serias dudas por el hecho de que algunos lineamientos precámbricos y locales se prolongan hacia el fondo marino circundante y pueden averiguarse a través de límites de placas (Choi, 2001). Un patrón de fractura ortogonal está bien desarrollado en todo el Pacífico y se conecta con las principales tendencias estructurales precámbricas de continentes, y ello descarta cualquier movimiento tectónico a gran escala (Smoot, 2001).


03. Puntos calientes

Lowman acepta la postura ortodoxa de que las islas oceánicas y los montes submarinos del Pacífico son resultado del movimiento de la placa homónima sobre puntos calientes. Esto debiera generar una progresión de edad sistemática a lo largo de sus trayectos, pero las buenas progresividades son muy esporádicas y una gran mayoría tiene poca o ninguna. Las cadenas Cook-Austral y Marquesas presentan graves transgresiones de un nexo simple edad-distancia y por cambios extremos de firma isotópica, desacordes con un sólo origen volcánico. El caso de Hawai-Emperor proporciona una secuencia de edades más compacta, pero no hay variación pertinaz del flujo calórico a través del oleaje hawaiano, lo que contradice el modelo simple de punto caliente (Keith, 1993).

Los mencionados sitios se atribuyen a "plumas del manto" que surgen desde el límite entre aquél y el núcleo. Sheth (1999) demostró que esa explicación es artificial y ninguna evidencia geológica la necesita. Dicho rasgo mantélico de un punto caliente profundo se ampliaría hacia arriba por fuerzas de arrastre, creando una superficie con varios cientos de kilómetros y mucho más allá de las dimensiones de islas oceánicas; así, se afirma que las huellas de puntos calientes son originadas por "colas de plumas", pero continúa sin resolver la incógnita de lo sucedido con cabezas de plumas antiguas y modernas.

Es llamativo que muchas cadenas de islas oceánicas se encuentren a lo largo de zonas de fractura, y las provincias basálticas de inundación en cruces ortogonales de estas áreas (Smoot, 1997). Una alternativa creíble es que las huellas de puntos calientes se generan mediante propagación de fisuras y delimitan el campo de tensión litosférica, no de su desplazamiento (Sheth, 1999). Otra hipótesis arguye que las cadenas volcánicas lineares emergen por canales de tensión magmática en la litosfera (Meyerhoff et al., 1996).

Existe gran controversia en torno a qué tan rápido se mueven los puntos calientes entre sí; unos señalan 3 mm/año o menos, y otros 10-20 o más, siendo estas diferencias parte de las incertidumbres en la "reconstrucción de placas" (Gordon, 1995; Baksi, 1999).


​04. Edad del lecho marino

El dogma geocientífico asegura que la expansión del lecho marino está probada por el factum de que jamás se han encontrado rocas marinas con edad superior a 200 millones de años (Jurásico), mas sus partidarios deben ser ignaros o falaces. En los océanos del mundo se han descubierto miles de ellas, pertenecientes al Paleozoico y Precámbrico (Pratt, 2000; Sánchez Cela, 2000); por ejemplo, las rocas ultramáficas que componen las islas St. Peter y Paul -cercanas al ápice de la Dorsal Mesoatlántica- arrojaron edades de 350, 450, 835 y 2000 m.a., en comparación con los 35 m.a. supuestos en un principio.

Estas anomalías se suelen identificar con "glaciares erráticos" o “bloques no expandidos” durante la ruptura. Lowman cree plausible el concepto de ejes propagativos y fallas transformacionales "saltando de un lugar a otro", mientras varios especialistas lo consideran mecánicamente artificial e inverosímil. Algunas piedras antiguas pueden haber sido dejadas por témpanos, pero eso no da cuenta de las grandes áreas de corteza continental como Bald Mountain a 45° N en la Dorsal Media Atlántica, que posee un volumen estimado de 80 km3 y semeja datar del Proterozoico. Hay una creciente evidencia de que solía haber masas continentales aún mayores y ahora sumergidas en los océanos actuales (Dickins et al., 1992; Choi et al., 1992; Choi, 1999, 2001).

Deben concretarse proyectos para explorar el lecho oceánico a mayor profundidad y averiguar si existen sedimentos más antiguos bajo la capa basáltica que se ha llamado "subsuelo" de modo arbitrario. Esta chance es factible pues algunos basaltos tenían contactos cocidos con sedimentos suprayacentes y márgenes fríos, alternaban con depósitos o revelaron otras características intrusivas (sills y diques) o extrusivas en el lecho marino como la "estructura de almohada" (Meyerhoff et al., 1992; Choi, 2001). Los basaltos parecen constituir inundaciones de magma que cubren el "subsuelo" marino real, lo cual fue ostensible en el sitio de perforación n° 10 en la Dorsal Media Atlántica, donde los sedimentos más bajos tienen alrededor de 80 m.a. (Cretáceo) y el umbral basáltico subyacente sólo 15,9 por huella de fisión (Macdougall, 1971).


05. ¿Dorsales en expansión?

Según la premisa expansora del lecho marino, el magma basáltico se introduce en grietas tensionales dentro del valle rift en el ápice de la dorsal, y luego se enfría para formar diques. La amplitud producida por el lecho en movimiento rompe uno de éstos cuidadosamente en dos mitades, que van en direcciones opuestas por los flancos de esa cordillera. No queda claro cómo una pluma mantélica ancha puede generar un sector de acreción axial constreñido, con menos de 5 kms. en algunos modelos, y estar sujeta a una compensación de "borde filoso" en fallas transformativas importantes (Keith, 1993).

La actividad ígnea axial debería equivaler a la rapidez de propagación, mas no parece ocurrir. La dorsal próxima a Islandia, uno de los sitios volcánicos más célebres del planeta, muestra una tasa expansiva de sólo un centímetro/año, en tanto que otras "sedentarias" como la Elevación Oriental del Pacífico y la casi asísmica al sur de Australia tendrían promedios de 4,6 a 10 cms./año sobre la base de franjas magnéticas (Keith, 1972).

Las imágenes de barrido lateral por radar señalan que las dorsales marinas conllevan miles de grietas y fracturas, incluidas fallas lineares y paralelas a dichas cadenas, que se prolongan por miles de kilómetros a lo largo de sus deslizantes. Esto sugiere indicios categóricos de que subyacen a poca profundidad por canales de magma interconexos, donde el material semifluido se traslada horizontal y paralelamente a las dorsales; entonces, el modelo de falla descrito es antílogo a la suposición canónica sobre el "flujo ortogonal" y termina siendo ignorado en gran parte.

Los tectonistas que reconocen un flujo paralelo de dorsales argumentan que brota un "diapiro mantélico" bajo cada trecho de cordillera oceánica, y en el plano superior hay fluencia yacente-radial, con un elemento significativo paralelo al rumbo de aquella serie "montañesca" en sentidos reversos. Sin embargo, esto debiese generar una paterna de fisuras radiales, fracturas y fallas vecinas al centro del diapiro, y tampoco se observa un prototipo radial o anular en ningún área de cadena submarina examinada con sonógrafos. Además, deberíamos ver dorsales de presión y estructuras compresivas similares en las cuencas entre segmentos de crestas aledañas (Meyerhoff et al., 1992).

La distribución de sedimentos en aguas someras de océanos actuales y su arreglo vertical en sectores perforados rebaten el ensanche del fondo marino (Ruditch, 1990). Con frecuencia, los depósitos noveles se hallan más lejos de zonas axiales que los antiguos, y ciertos terrenos oceánicos parecieron experimentar colapso y elevación alternos.

Se supone que las dorsales están controladas por tensiones, pero los datos sísmicos apuntan a fenómenos compresivos (Zoback et al., 1989). Se descubrió una zona de fallas de empuje, con 300 a 400 kms. en ancho, flanqueando la Dorsal Mesoatlántica a lo largo de 1000 kms. y producidas de modo compactante (Antipov et al., 1990). En Islandia, la mayor área terrestre sobre dicho cordón montañoso, las tensiones axiales prevalentes suelen ser compresivas en lugar de difusoras; hay subsidencia en el fondo del valle rift y la meseta limítrofe en aquella isla con tasas que aumentan hacia el eje, siendo difíciles de reconciliar con la hipótesis de afloramiento axial, acreción en una sóla etapa y extensividad (Keith, 1993).

Los estudios geodésicos en áreas “rift” de Islandia y África Oriental no han percibido ninguna amplitud sistemática y firme, como ingenia la tectónica de placas. Frente a la quimera de encontrar desplazamientos de tensión asociados con la grieta de África Oriental, los geólogos se sintieron compelidos a decir que los movimientos de placas deben ser "episódicos" (Asfaw et al., 1992). Los datos sobre terremotos insinúan que los sistemas rift de África-Oriente Medio y el Rin Graben se vinculan con actividades compresivas (Zoback et al., 1989); además, los sondeos en la estructura de “transformación y propagación” de San Andrés [EE.UU.] evidencian dinámicas de cizallamiento muy variable, pero no propaladoras (Keith, 1993).

Lowman cree que el "empuje de dorsal" transmite fuerzas de compresión a gran distancia, lo cual es controvertible porque aparte de la medra ambigua en el lecho marino, las probanzas de debilidad a largo plazo en grandes masas líticas opugna el concepto de que las presiones en bordes vayan desde un margen de "placa" a su orilla interior u opuesta (Keith, 1993).


​06. Anomalías magnéticas marinas

Se considera que la expansión del fondo oceánico, junto con inversiones magnéticas globales, produce bandas alternas de intensidad magnética un poco más alta y baja a cada lado de las dorsales. Sin embargo, sólo se conocen anomalías lineares en un 70% de cadenas mesoceánicas sísmicamente activas, y los esquemas de franjas simétricas, paralelas y longitudinales en muchos textos revisten un carácter fantástico. Los desajustes son simétricos al eje de la dorsal en menos del 50% del sistema donde están presentes, y en el 21% son oblicuas a su tendencia. En ocasiones aparecen las de tipo lineal cuando no existe una cordillera, y no todas las irregularidades cartografiadas emergen por materiales de corteza oceánica. Un rasgo complejo es que toda alineación magnética consta en detalle de numerosas anomalías estrechas y de gran amplitud.

Fig. 5. Dos vistas de anomalías magnéticas. Arriba: perfil estándar. Debajo: patrones en el Atlántico norte (Meyerhoff y Meyerhoff, 1972, fig. 5).

Las correlaciones entre bandas magnéticas en ambos lados de una dorsal o múltiples partes del océano han sido en gran medida cualitativas y subjetivas, por lo cual despiertan sospechas. Los datos se manipulan o suavizan, y prácticamente no se ha hecho ningún esfuerzo para probar esos vínculos de modo cuantitativo transformándolos en el polo (es decir, recalculando cada perfil magnético a una latitud común). Se supone que las anomalías magnéticas en el cordón Reykjanes son un ejemplo clásico de simetría dorsal-paralela, pero Agocs et al. (1992) concluyeron a partir de un minucioso trabajo que los enlaces eran muy pobres; el índice a lo largo del deslizante promedió 0,31 y 0,17 en la dorsal, con límites de +1 a -1; también los nexos entre irregularidades y la topografía del fondo arrojaron 0,42.

Por lo común, la distancia entre bandas de disfunciones magnéticas no es proporcional al transcurso de periodos geomagnéticos. Las longitudes de épocas Brunhes, Matuyama y Gauss se reparten en 1,0: 2,4: 1,6; sin embargo, en Reykjanes los tramos de anomalías más cercanas a su eje son 1,0: 0,5: 0,4. Hay una brecha de proporcionalidad igualmente grande en la Elevación del Pacífico Oriental, que puede explicarse desde el tectonismo sólo mediante cambios considerables en la tasa expansiva respecto a los últimos tres millones de años (Beloussov, 1980). Entretanto, Gordon y Stein (1992) declaran: “(...) los datos geodésicos espaciales muestran que las velocidades promedio de placas durante pocos años son similares a rapideces medias incumbentes a millones de años” (p. 338). Además se suele invocar la amplitud dispareja del fondo marino, siendo adscrita a migración de dorsales o "brincos" producidos por interactuar con plumas mantélicas (Müller et al., 1998).

Se ha propuesto una historia compleja de expansión en el lecho para las cuencas del Pacífico, a fin de "dilucidar" sus enrevesados patrones de anomalías magnéticas. Los peritos sugieren que en la zona occidental los diversos estándares nacieron por un centro expansivo quíntuple y unido en dos puntos triples. Agregan que todas las correlaciones entre perfiles magnéticos se establecieron "al ojo"; en contraste, si las anomalías surgen por canales tensivos antaño operatorios, aparece un flujo de coherencia intrínseca (Meyerhoff et al., 1996, fig. 4.4).

En la Dorsal Media Atlántica hay dos desajustes magnéticos, que según la "escala de tiempo geomagnética fosilizada" debieran tener 8 millones de años y pueden rastrearse hasta Islandia, donde corresponden a manifestaciones volcánicas del Pleistoceno y Holoceno con una edad más corta (Beloussov, 1980). Las bandas de anomalías "golpean" los continentes en al menos 15 lugares y "se hunden" bajo rocas proterozoicas o de menor edad, siendo también casi concéntricas alrededor de escudos continentales arqueanos. Ello implica sitios de fracturas antiguas que se formaron parcialmente en el Proterozoico y rejuvenecieron desde entonces (Meyerhoff y Meyerhoff, 1974). La paterna de franjas se describe mejor por bandas líticas conexas a fallas de diversas susceptibilidades magnéticas (Agocs et al., 1992; Choi et al., 1992).

La perforación en océanos controvierte el modelo inicial y altamente simplista de un lecho marino dispersible para el origen de anomalías magnéticas (Pratsch, 1986; Hall y Robinson, 1979): primero, tuvo que abandonarse la idea de su génesis en los 500 metros superiores de corteza oceánica. Las intensidades magnéticas, direcciones generales de polarización y a menudo la existencia de diferentes zonas de polaridad a varios niveles subterráneos apuntan a que los suplidores de anomalías se encuentran en planos de corteza más hondos que aún no están perforados ni datados. En segundo término, las capas verticalmente alternas de sentidos opuestos en polarización magnética contraprueban que la corteza oceánica se magnetizó por completo al presentar expansividad lateral desde el centro magmático, e indican que los acotejos seriales de corteza representan tiempos geológicos más largos de lo que hoy se acepta. Todo eso concuerda con las pródigas “rarezas” en edad de rocas marinas, y visto que la cronoescala de bandas magnéticas es probablemente ficticia, cualquier nexo entre las estimaciones del movimiento de placas deducidas de ella y los datos geodésicos espaciales es susceptible de representar una mera coincidencia, o el efecto de posturas sesgadas.


07. Subducción

El considerando de las zonas Wadati-Benioff como "áreas de subducción" está repleto de dificultades (Pratt, 2000; Oard, 2000b). Se supone que el volumen de corteza generado en dorsales oceánicas es igual al subducido, pero estos sistemas geológicos crean nuevas capas corticales en 2 x 74000 kms., mientras que hay 43500 de fosas y 9000 para "zonas de choque", o un tercio de "centros expansivos".

Nadie explica de buena manera cómo se impulsa la corteza oceánica hacia el manto más denso. Un análisis sobre mecánica de subducción propone que quizás nunca pudo obrarse, y mucho menos continuar (James, 2000).

Al inicio se conjeturó que las fosas albergaran sedimentos densos y deformes acumulados durante millones de años de convergencia; en cambio, el 44% de aquéllas no tiene depósitos. El resto engloba "cuñas de acreción" a lo largo de la pendiente hacia tierra y más reducidas que lo previsto. Se esperaba que éstas últimas crecieran y elevaran con el tiempo, pero ahora se sabe que algunas disminuyeron varios kilómetros. Además, los sedimentos suelen estar en capas horizontales y sin perturbaciones, derivando principalmente de tierra firme y no el lecho marino. Los tectonistas recurren a la idea inverosímil de que el sedimento blando oceánico puede trasladarse a un área de subducción sin dejar rastros importantes. El hallazgo de piedras sedimentarias viejas en pendientes internas de fosas condujo a la creencia de que las rocas más noveles del margen continental también erosionaron y subdujeron. De igual forma, los montes submarinos despojados y sus trozos deberían apilarse en fosas, pero no es así.

Se demostró falso el vaticinio de que las zonas subductivas mostrarían rasgos compresionales "espléndidos" y "obvios". La extensión es ubicua en desniveles de fosas con rumbo al océano y las cuencas de arco posterior, y se encontró inesperadamente en arcos de islas. La fosa misma tiene cariz de sección transversal de un graben, en tanto que la cobertura predomina en las partes media y alta de dicho gradiente hacia tierra o el arco. Hoy el aplastamiento sigue preterido al declive más bajo, pero esta zona se interpreta mejor como el resto de una gran subsidencia o flujo de escombros.

Choi (2000) dice que las interpretaciones tectonistas de sismos en fosas del Pacífico carecen de solidez y están constreñidas por modelos. Varios perfiles sugieren que la corteza inferior precámbrica yace bajo el fondo del océano y el talud continental, atravesando la cárcava sin subducción. Los sedimentos progradantes a tierra junto con datos geofísicos y de dragado indican que antaño hubo masas continentales en el Pacífico moderno, donde ahora vemos profundas llanuras abisales y fosos.

Los diseños de áreas de subducción en manuales están embellecidos, porque en realidad presentan una estructura compleja con cisuras y gajos transversales/verticales. A menudo comportan un tramo superior que tiende a un buzamiento de menor calado que el inferior, y ambos sectores pueden indicar un desfase de hasta 350 kms. Los terremotos profundos están desunidos a los superficiales y hay pocos intermedios (Figura 6). El nivel sísmico muy bajo dentro de 50 kms. del eje de fosa y la ausencia de una gran falla de empuje en la base del talud continental no auspician ninguna "losa descendente".

Fig. 6. Distribución de terremotos perpendicular a los Andes, 15-30° S (Teisseyre et al., 1974, fig. 8). La "zambullida de losa" es más bien quimérica.

Lowman sostiene que otros datos telúricos apoyan la subducción. Es cierto que la mayoría de terremotos profundos señala fuerzas compactantes de primer movimiento que involucran traslado de gradientes verticales, pero al contrario de predicciones genéricas, las sacudidas de hondura intermedia muestran un ímpetu análogo muy variable y entrañan tensión degresiva. La inestabilidad en mecanismos focales puede ser extrema incluso en una distancia corta de la zona Wadati-Benioff, y esto es difícil de comprender si el trabajo sísmico resulta por un campo de tirantez uniforme.

Se cree que la mayoría de focos de terremotos grandes sobreviene en la interfaz de placas en un área Wadati-Benioff, pero en ocasiones los hay profundos e intermedios allende esta zona. Por ejemplo, se han producido cuatro sacudidas violentas de 75 a 200 kms. al oeste de la zona subductiva de Kurile-Kamchatka, siendo adscritas a una pieza litosférica suelta y aún en deformación; luego, ello fue visto como "prueba" de que la losa no continúa por debajo de 700 kms., aunque este es el lugar donde la tomografía llevó por primera vez a deducir que las losas penetran el manto inferior. Es sorprendente que muchos terremotos advienen dentro de la "losa subductora" y no a lo largo de la interfaz de placa, donde se supone que la tensión es mayor. Otro hecho capcioso es que el deslizamiento de terremotos rara vez acontece con rumbo al desnivel de la zona Wadati-Benioff y sea oblicuo al plano "zambullidor" (Oard, 2000b; Suzuki, 2001b). En 1994, el episodio con magnitud 8,3 en Bolivia semejó tener una dinámica horizontal que atravesó la "losa" de pendiente abrupta.

En lugar de que la litosfera marina repose bajo arcos isleños y fosos de arcos posteriores en zonas Wadati-Benioff, una alternativa es que los núcleos continentales de cinturones montañescos y sistemas arco-fosa de islas se desplacen a promontorios u hoyas oceánicas mediante procesos tectónicos verticales (Krebs, 1975; Wezel, 1986; Dickins y Choi, 2000; Oard, 2000b; Suzuki, 2001a). El área Wadati-Benioff representaría la interfaz de combadura entre el arco insular en ascenso/región continental, y la corteza/manto oceánico que se hunden, explicando así por qué los movimientos de terremotos son más aleatorios de lo presumido. Dicha hipótesis también elucidaría el alto nivel de calor bajo el arco isleño y la cuenca del posterior, junto con su extensión/colapso, vulcanismo y el fuerte desbalance de gravedad positiva y paralelo al arco, que aún siguen constituyendo incertidumbres. El dogma contemporáneo también fracasa respecto a la génesis montañosa alrededor de la Cuenca del Pacífico y otros lugares (Ollier y Pain, 2000).

La tectónica de placas se enfrenta a problemas gravísimos como los ya descritos. Existe una necesidad urgente de continuar investigando la composición y edad de lo que se denomina “corteza oceánica”, pues los avances podrían decidir para siempre el destino de la ortodoxia.


08. Referencias

Agocs, W.B., Meyerhoff, A.A. y Kis, K. (1992). "Reykjanes Ridge: quantitative determinations from magnetic anomalies", en: Chatterjee, S. y Hotton, N., III, eds., New Concepts in Global Tectonics, Lubbock, TX: Texas Tech University Press, p. 221-238.

Anderson, D.L., Tanimoto, T. y Zhang, Y. (1992). "Plate tectonics and hotspots: the third dimension", Science, v. 256, p. 1645-1651.

Angermann, D., Klotz, J. y Reigber, C. (1999). "Space-geodetic estimation of the Nazca-South America euler vector", Earth and Planetary Science Letters, v. 171, p. 329-334.

Antipov, M.P., Zharkov, S.M., Kozhenov, V.Y.A. y Pospelov, I.I. (1990). "Structure of the Mid-Atlantic Ridge and adjacent parts of the abyssal plain at lat. 13°N", International Geology Review, v. 32, p. 468-478.

Asfaw, L.M., Bilham, R., Jackson, M. y Mohr, P. (1992). "Recent inactivity in African rift", Nature, v. 357, p. 447.

Baksi, A.K. (1999). "Reevaluation of plate motion models based on hotspot tracks in the Atlantic and Indian Oceans", Journal of Geology, v. 107, p. 13-26.

Beloussov, V.V. (1980). Geotectonics, Moscow: Mir.

Bevis, M., Taylor, F.W., Schutz, B.E., Recy, J., Isacks, B.L., Helu, S., Singh, R., Kendrick, E., Stowell, J., Taylor, B. y Calmant, S. (1995). "Geodetic observations of very rapid convergence and back-arc extension at the Tonga arc", Nature, v. 374, p. 249-251.

Choi, D.R. (1999). "Geology of East Pacific: Middle America Trench", New Concepts in Global Tectonics Newsletter, n° 12, p. 10-16.

Choi, D.R. (2000). "Subduction does not exist – from seismic data interpretation", New Concepts in Global Tectonics Newsletter, n° 15, p. 9-14.

Choi, D.R. (2001). "Submarine geology of the oceans around Australia", Himalayan Geology, v. 22, p. 81-90.

Choi, D.R., Vasil'yev, B.I. y Bhat, M.I. (1992). "Paleoland, crustal structure, and composition under the northwestern Pacific Ocean", en: Chatterjee, S. y Hotton, N., III, eds., New Concepts in Global Tectonics, Lubbock, TX: Texas Tech University Press, p. 179-191.

Demets, C., Gordon, R.G., Argus, D.F. y Stein, S. (1994). "Effect of recent revisions to the geomagnetic reversal time scale on estimates of current plate motions", Geophysical Research Letters, v. 21, p. 2191-2194.

Dickins, J.M. y Choi, D.R. (2000). "Neogene events and the modern world", Himalayan Geology, v. 22, p. 199-206.

Dickins, J.M., Choi, D.R. y Yeates, A.N. (1992). "Past distribution of oceans and continents", en: Chatterjee, S. y Hotton, N., III, eds., New Concepts in Global Tectonics, Lubbock, TX: Texas Tech University Press, p. 193-199.

Genrich, J.F., Bock, Y., McCaffrey, R., Calais, E., Stevens, C.W. y Subarya, C. (1996). "Accretion of the southern Banda arc to the Australia plate margin determined by Global Positioning System measurements", Tectonics, v. 15, p. 288-295.

Gordon, R.G. (1995). "Plate motions, crustal and lithospheric mobility, and paleomagnetism: prospective viewpoint", Journal of Geophysical Research, v. 100, p. 24367-24392.

Gordon, R.G. y Stein, S. (1992). "Global tectonics and space geodesy", Science, v. 256, p. 333-342.

Hall, J.M. y Robinson, P.T. (1979). "Deep crustal drilling in the North Atlantic Ocean", Science, v. 204, p. 573-586.

James, P. (1994). The Tectonics of Geoid Changes. Calgary, Alberta: Polar Publishing.

James, P. (2000). "A coarse analysis of the alleged processes of subduction", New Concepts in Global Tectonics Newsletter, n° 16, p. 5-7.

Keith, M.L. (1972). "Ocean floor convergence: a contrary view of global tectonics", Journal of Geology, v. 80, p. 249-276.

Keith, M.L. (1993). "Geodynamics and mantle flow: an alternative earth model", Earth-Science Reviews, v. 33, p. 153-337.

Kikuchi, M. y Kanamori, H. (1995). "The Shikotan earthquake of October 4, 1994: lithospheric earthquake", Geophysical Research Letters, v. 22, p. 1025-1028.

Klotz, J., Angermann, D., Michel, G.W., Porth, R., Reigber, C., Reinking, J., Viramonte, J., Perdomo, R., Ríos, V.H., Barrientos, S., Barriga, R. y Cifuentes, O. (1999). "GPS-derived deformation of the central Andes including the 1995 Antofagasta Mw = 8.0 earthquake", Pure and Applied Geophysics, v. 154, p. 709-730.

Krebs, W. (1975). "Formation of southwest Pacific island arc-trench and mountain systems: plate or global-vertical tectonics?", American Association of Petroleum Geologists Bulletin, v. 59, p. 1639-1666.

Larson, K.M., Freymueller, J.T. y Philipsen, S. (1997). "Global plate velocities from the Global Positioning System", Journal of Geophysical Research, v. 102, p. 9961-9981.

Lerner-Lam, A.L. (1988). "Seismological studies of the lithosphere", Lamont-Doherty Geological Observatory Yearbook, p. 50-55.

Lowman, P.D., Jr. (1995). "Plate tectonics and continental drift: a skeptic’s view", en: Skinner, B.J. y Porter, S.C., The Blue Planet: An Introduction to Earth System Science, New York: John Wiley & Sons, p. 187-189.

Lowman, P.D., Jr. (2001). "Review of 'Plate tectonics: a paradigm under threat' by David Pratt", New Concepts in Global Tectonics Newsletter, n° 20, p. 24-26.

Macdougall, D. (1971). "Deep sea drilling: age and composition of an Atlantic basaltic intrusion", Science, v. 171, p. 1244-1245.

Macmillan, D.S. y Ma, C. (1999). "VLBI measurements of Caribbean and South American motion", Centro Espacial Goddard, NASA (ftp://gemini.gsfc.nasa.gov/pub/misc/dsm/analysis.html).

Meyerhoff, A.A. y Meyerhoff, H.A. (1972). “'The new global tectonics': age of linear magnetic anomalies of ocean basins", American Association of Petroleum Geologists Bulletin, v. 56, p. 337-359.

Meyerhoff, A.A. y Meyerhoff, H.A. (1974). "Ocean magnetic anomalies and their relations to continents", American Association of Petroleum Geologists, Informe n° 23, p. 411-422.

Meyerhoff, A.A., Agocs, W.B., Taner, I., Morris, A.E.L. y Martin, B.D. (1992). "Origin of midocean ridges", en: Chatterjee, S. y Hotton, N., III, eds., New Concepts in Global Tectonics, Lubbock, TX: Texas Tech University Press, p. 151-178.

Meyerhoff, A.A., Taner, I., Morris, A.E.L., Agocs, W.B., Kaymen-Kaye, M., Bhat, M.I., Smoot, N.C. y Choi, D.R. (1996). Surge Tectonics: A New Hypothesis of Global Geodynamics (D. Meyerhoff Hull, ed.), Dordrecht: Kluwer.

Müller, R.D., Roest, W.R. y Royer, J.-Y. (1998). "Asymmetric sea-floor spreading caused by ridge-plume interactions", Nature, v. 396, p. 455-459.

Murata, M. (1993). "Observing geodynamics from the analysis of 7.3-year LAGEOS data", en: Smith, D.E. y Turcotte, D.L., eds., Contributions of Space Geodesy to Geodynamics: Crustal Dynamics, series sobre geodinámica, Unión Geofísica Americana, v. 23, p. 73-80.

Oard, M.J. (2000a). "Literature criticisms of plate tectonics", en: Reed, J.K., ed., Plate Tectonics: A Different View, St. Joseph, MO: Creation Research Society Books, p. 25-64.

Oard, M.J. (2000b). "Subduction unlikely – plate tectonics improbable", en: Reed, J.K., ed., Plate Tectonics: A Different View, St. Joseph, MO: Creation Research Society Books, p. 93-145.

Ollier, C. y Pain, C. (2000). The Origin of Mountains. London: Routledge.

Pavlenkova, N.I. (1990). "Crustal and upper mantle structure and plate tectonics", en: Barto-Kyriakidis, A., ed., Critical Aspects of the Plate Tectonics Theory, Athens: Theophrastus Publications, v. 1, p. 73-86.

Pavlenkova, N.I. (1996). "General features of the uppermost mantle stratification from long-range seismic profiles", Tectonophysics, v. 264, p. 261-278.

Pratsch, J.C. (1986). "Petroleum geologist’s view of oceanic crust age", Oil and Gas Journal, 14 de julio, p. 112-116.

Pratt, D. (2000). "Tectónica de placas: un modelo bajo amenaza", Journal of Scientific Exploration, v. 14, p. 307-352.

Robaudo, S. y Harrison, C.G.A. (1993). "Plate tectonics from SLR and VLBI global data", en: Smith, D.E. y Turcotte, D.L., eds., Contributions of Space Geodesy to Geodynamics: Crustal Dynamics, series sobre geodinámica, Unión Geofísica Americana, v. 23, p. 51-71.

Ruditch, E.M. (1990). "The world ocean without spreading", en: Barto-Kyriakidis, A., ed., Critical Aspects of the Plate Tectonics Theory, Athens: Theophrastus Publications, v. 2, p. 343-395.

Ryan, J.W., Clark, T.A., Ma, C., Gordon, D., Caprette, D.S. y Himwich, W.E. (1993). "Global scale tectonic plate motions measured with CDP VLBI data", en: Smith, D.E. y Turcotte, D.L., eds., Contributions of Space Geodesy to Geodynamics: Crustal Dynamics, series sobre geodinámica, Unión Geofísica Americana, v. 23, p. 37-49.

Sánchez Cela, V. (2000). Densialite: A New Upper Mantle. Zaragoza: Universidad de Zaragoza.

Sheth, H.C. (1999). "Flood basalts and large igneous provinces from deep mantle plumes: fact, fiction, and fallacy", Tectonophysics, v. 311, p. 1-29.

Smith, D.E. y Baltuck, M. (1993). "Introduction", en: Smith, D.E. y Turcotte, D.L., eds., Contributions of Space Geodesy to Geodynamics: Crustal Dynamics, series sobre geodinámica, Unión Geofísica Americana, v. 23, p. 1-3.

Smith, D.E., Kolenkiewicz, R., Nerem, R.S., Dunn, P.J., Torrence, M.H., Robbins, J.W., Klosko, S.M., Williamson, R.G. y Pavlis, E.C. (1994). "Contemporary global horizontal crustal motion", Geophys. Journal Int., v. 119, p. 511-520.

Smoot, N.C. (1997). "Magma floods, microplates, and orthogonal intersections", New Concepts in Global Tectonics Newsletter, n° 5, p. 8-13.

Smoot, N.C. (2001). "Ocean Survey Program (OSP) bathymetry history: jousting with tectonic windmills", Himalayan Geology, v. 22, p. 65-80.

Suzuki, Y. (2001a). "A proposal of three dimensional geotectonics", Himalayan Geology, v. 22, p. 27-32.

Suzuki, Y. (2001b). "A geotectonic model of South America referring to the intermediate-deep earthquake zone", New Concepts in Global Tectonics Newsletter, n° 20, p. 17-24.

Teisseyre, R., Wojtczak-Gadomska, B., Vesanen, E. y Mäki, M.-L. (1974). "Focus distribution in South American deep-earthquake regions and their relation to geodynamic development", Physics of the Earth and Planetary Interiors, v. 9, p. 290-305.

Wezel, F.-C. (1986). "The Pacific island arcs: produced by post-orogenic vertical tectonics?", en: F.-C. Wezel, ed., The Origin of Arcs, Amsterdam: Elsevier, p. 529-567.

Zoback, M.L., Zoback, M.D. y Compilation Working Group (1989). "Global patterns of tectonic stress", Nature, v. 341, p. 291-298.

13 de mayo de 2024

El debate sobre los experimentos Ganzfeld

Chris Carter, "Science and Psychic Phenomena" (2007), capítulo 7


[N.del T.: el efecto Ganzfeld (del alemán "campo homogeneizado") es un recurso en parapsicología que sirve para comprobar facultades telepáticas y extrasensoriales. Con este objetivo, es necesario suprimir los sentidos físicos de una persona para facilitarle el reconocimiento de información emitida desde otras fuentes, por lo común imágenes. De esta manera, cuando el individuo es expuesto a un campo de estímulo uniforme, el cerebro amplifica el ruido neuronal para encontrar símbolos audiovisuales faltantes, y según los parapsicólogos, es esto lo que permitiría detectar ondas telepáticas de otras personas, aunque también puede generar ciertos tipos de alucinaciones].

El psicólogo Ray Hyman, por mucho tiempo critico de la indagatoria psi y miembro fundador del CSICOP [Comité para la Investigación Científica de Afirmaciones Paranormales], no estuvo de acuerdo con las inferencias de Charles Honorton y llevó a cabo su propio metanálisis sobre los datos Ganzfeld. Este hecho generó un debate, cuyos inicios se publicaron en dos números completos del Journal of Parapsychology en 1985 y 1986.

Hyman afirmaba que era demasiado alto el cálculo del 55% de estudios significativos, y adscribiendo una serie de escollos con las 42 pruebas, en vista de que algunos investigadores utilizaron más de una medida para determinar un resultado exitoso (análisis múltiple); peor aún, existía la posibilidad de que ciertos pesquisantes hubieran “regateado”, aplicando diversos criterios a los datos hasta encontrar un parámetro que fuera “indicativo”. También planteó la hipótesis de un sesgo favorable para llegar a resultados satisfactorios.

Este es el llamado problema del “archivador”, es decir, cuando tienden a reportarse los experimentos con resultantes propicias, mientras que las fallas simplemente languidecen en cajones llenos de informes. Finalmente, Hyman presentó los resultados de un análisis estadístico que aspiraba a mostrar una relación entre el número de errores en cada estudio y el éxito reportado, sosteniendo que los ensayos más incompletos solían informar las puntuaciones más altas. Al ajustar todos esos factores, Hyman concluyó que la tasa de éxito real estaba cerca de lo predicho por el azar.

Honorton aceptó la primera de estas críticas, y concedió que el análisis múltiple era en realidad un contratiempo. En respuesta, limitó su análisis sólo a aquellas 28 pruebas que genuinamente reflejaban las tasas de acierto obtenidas para calcular el porcentaje de logros directos, definiendo un resultado exitoso sólo como aquel donde el sujeto clasificaba al objetivo en primer lugar. Utilizando esta medida uniforme, 23 de las 28 instancias obtuvieron productos superiores a la expectativa aleatoria, y el 43% del total de ensayos arrojó frutos significativos. El promedio general de aciertos fue del 35% (25% esperado por casualidad) y el intervalo de confianza del 95% osciló entre 28 y 43%. Además, los resquicios de que esto ocurriera sólo por casualidad eran de mil millones a uno (1).

Honorton evidenció que estas resultantes positivas no se debieron sólo a uno o dos laboratorios, pues los 28 experimentos provinieron de diez recintos diferentes: uno dirigido por el psicólogo británico Carl Sargent, que contribuyó con nueve; el de Honorton con cinco; otros dos que realizaron tres cada uno; dos instalaciones replicaron dos cada una, y las cuatro restantes contribuyeron con un estudio por separado. Así, la mitad de los controles vino sólo de dos laboratorios, siendo uno de ellos el de Honorton.

En consecuencia, Charles analizó los productos de cada laboratorio y encontró que eran significativos para seis de los diez establecimientos. Incluso si proscribiéramos los resultados de las dos instalaciones más prolíficas, las probabilidades contra el azar seguían siendo de 10.000 a uno (2). Por lo tanto, las respuestas positivas no podían explicarse mediante análisis múltiple, o como efecto de que sólo uno o dos lugares contribuyeran con la mayor parte de los estudios. Luego Honorton abordó las otras críticas de Hyman.


Informes selectivos

Durante mucho tiempo se ha venido creyendo que en todos los campos puede haber un sesgo a favor para reportar y publicar estudios con desenlaces positivos. Dada la naturaleza controvertida de su tema, los parapsicólogos estuvieron entre los primeros en abordar esta dificultad, y en 1975 la Asociación de Parapsicología adoptó una política contraria a la retención de datos no significativos, siendo éste un hecho único entre las disciplinas científicas. Además, en 1980 Susan Blackmore realizó una encuesta entre parapsicólogos para comprobar si había un sesgo a favor de notificar resultados exitosos de Ganzfeld, y concluyó que no había ninguno. Descubrió sólo diecinueve estudios homónimos completos, pero no declarados; siete de ellos (37%) tuvieron secuelas significativamente positivas, una proporción muy similar a aquélla de los testeos en el metanálisis que lograron frutos llamativos de modo independiente (43%) (3).

Aún así y como en teoría no es posible saber cuántos ensayos no reportados pueden permanecer en cajones de archivos, Honorton utilizó una técnica de metanálisis con objeto de calcular cuántos experimentos Ganzfeld desconocidos y no significativos se necesitarían para abreviar las resultantes informadas a niveles de probabilidad. Acerca de las 28 pruebas Ganzfeld sobre impacto directo, se requerirían 423 no reportadas y no significativas respecto a una proporción de ensayos sin informar, para una tasa aproximativa de 15 a 1 de estudios divulgados versus desconocidos. Puesto que una sesión Ganzfeld comporta más de una hora y considerando el bajo número de laboratorios equipados en el mundo para esta clase de experimentos, no es sorprendente que Hyman coincidiera con Honorton en que los informes selectivos no podían explicar la importancia de los resultados (4).


Defectos del estudio

Una de las críticas más frecuentes a la investigación psi es que la mayoría de controles tiene errores metodológicos. Se afirma que esas instancias mal diseñadas y ejecutadas explican muchos resultados positivos; por ende, si se descartaran dichos ensayos, las secuelas favorables desaparecerían.

Afortunadamente, el metanálisis proporciona una técnica para determinar en qué medida los traspiés metodológicos pueden dar cuenta de desenlaces satisfactorios. Cada estudio se categoriza según el grado de presencia de un defecto concreto, y luego estas calificaciones se correlacionan con los productos del control. De esta manera, las congruencias positivas más grandes entre la presencia de fallas y resultados exitosos respaldarían el reclamo de que aquéllos se deben simplemente a fallas del estudio. Uno de los engaños más graves en la investigación psi es la fuga sensorial, en que un sujeto es capaz de adquirir conocimiento del objetivo por medio de sentidos ordinarios, ya sea sin percatarse o recurriendo a trampas intencionales.


Fuga sensorial

A través de privación sensoria y habitáculos acústicamente sellados, el diseño Ganzfeld tiende a minimizar cualquier oportunidad de fuga sensorial del objetivo. Sin embargo, los críticos plantearon que si los experimentadores que tratan con sujetos conocen el objetivo, de alguna forma pueden sesgar la elección de éstos últimos. Un estudio contenía ese lapsus, pero en realidad los sujetos obtuvieron puntuaciones levemente por debajo de la probabilidad. Otra opción de fuga sensorial es si la imagen física usada por el remitente se incluye en el conjunto de imágenes entregadas al receptor para que las evalúe, y así tal vez éste pueda darse cuenta consciente o inconscientemente de que la figura meta haya sido manipulada. Esto se conoce como "hipótesis de los dedos grasientos", y aunque los controles Ganzfeld contemporáneos utilizan grupos duplicados de objetivos, no fue así en algunos de los primeros estudios.

Hyman y Honorton concluyeron que no existía un vínculo sistemático entre las fallas que posiblemente condujeran a una fuga sensorial y la resultante del ensayo. Charles también informó que, incluso si se descartaran los testeos que no emplearon conjuntos de objetivos duplicados, las respuestas seguían siendo muy significativas, con probabilidades de aproximadamente 100.000 a uno (5).


Aleatorización inadecuada

Luego Hyman concentró sus reparos en lo que, según él, constituían errores en los procedimientos aleatorios. Esta práctica es importante en los experimentos Ganzfeld, e implica dos aspectos: a) cada objetivo potencial debe tener las mismas posibilidades de ser seleccionado, y b) cada objetivo no debe aparecer en una posición predecible, cuando se muestra al sujeto el conjunto de cuatro imágenes-objetivo al final de la sesión.

Hyman aseguró descubrir una relación importante entre los defectos de la aleatorización y los desenlaces exitosos, mientras Honorton dijo que no existía tal vínculo. La fuente del disenso se remonta a definiciones contradictorias de equívocos, y quizá en esta parte del análisis se adscribiría a diferencias de sesgo. Después de todo, Hyman es un escéptico confirmado desde hace mucho tiempo, y Honorton había estado efectuando investigaciones psi durante décadas.

Sin embargo, ninguno de los diez participantes en el debate publicado en 1986 aprobó las conclusiones de Hyman, mientras que cuatro no parapsicólogos -dos estadísticos y dos psicólogos- convergieron explícitamente con el parámetro de Honorton (6). David Saunders, estadístico en psicología, fue uno de los primeros profesionales independientes en abordar el estudio de fallas por Hyman, y concluyó que "todo el análisis no tiene sentido" (7).

No obstante y si bien muchos han argumentado históricamente que los equívocos de proceso pueden explicar resultados positivos en controles psi, el análisis por Hyman fue pionero en cuantificar realmente el nexo entre errores y respuestas significativas. En cualquier caso, él continuó insistiendo en que había vínculos entre la aleatorización inadecuada y los frutos del estudio, pero admitía que "la base de datos actual no respalda ninguna conclusión firme" entre ambos aspectos (8).

Como se mencionó anteriormente, diez críticos y partidarios adicionales de la parapsicología añadieron comentarios sobre el debate. En su mayoría, los críticos no estaban convencidos, pero hubo una salvedad notable: el matemático inglés Christopher Scott -y conocido escéptico- describió el razonamiento de Honorton como "el argumento más convincente sobre la existencia de PES [Percepción Extra-Sensorial] que he encontrado hasta ahora" (9).


El "Comunicado Conjunto"

Quizás el evento más atípico en la siguiente ronda del debate fue un "comunicado" del que eran coautores Hyman y Honorton. En lugar de seguir con la discusión, crearon un apéndice que comenzaba enumerando sus diferencias y puntos de acercamiento: "Estamos de acuerdo en que existe un efecto general significativo en esta base de datos, que no puede explicarse razonablemente por informes selectivos o análisis múltiples. Seguimos discrepando sobre el nivel en que el resultado constituye evidencia de psi, pero pensamos que el veredicto final aguarda la iniciativa de experimentos futuros realizados por una gama más amplia de investigadores, y con arreglo a estándares más estrictos" (10).

Luego describieron esos parámetros imprescindibles con que deberían ejecutarse futuros testeos Ganzfeld. Estos incluían férreas precauciones de seguridad contra fugas sensoriales y posibles fraudes, pruebas requeridas de los métodos de aleatorización, y la insistencia en documentar detalladamente los procedimientos experimentales, las técnicas aleatorias y el estado del control, ya sea que se destinara a confirmar hallazgos previos o investigar condiciones nuevas. Uno de los colegas parapsicólogos de Honorton señaló que “[Charles] estaba especialmente interesado en lograr que Hyman aceptara públicamente dichos criterios, pues los pseudoescépticos son conocidos por cambiar las reglas del juego tras cumplirse todas las objeciones anteriores, y cuando los nuevos experimentos continúan proporcionando resultados positivos" (11).

En este punto cabe subrayar lo extraordinario de la discusión, ya que marcó una gran diferencia en los intercambios retóricos habituales entre los parapsicólogos y sus críticos. Poco antes de las primeras rondas, Hyman escribió: “El nivel del debate en los últimos 130 años ha sido una vergüenza para todos quienes creen que los académicos y científicos se adhieren a estándares de racionalidad y juego limpio” (12).

Tras publicarse el anuncio conjunto, el psicólogo Robert Rosenthal señaló: “Los parapsicólogos y científicos en general mantienen una enorme deuda de gratitud con Ray Hyman y Charles Honorton por su cuidadoso y extenso trabajo analítico y meta-analítico sobre el problema Ganzfeld. Su intercambio generó una relación de claroscuros especialmente llamativa, y muchas de las cuestiones importantes ahora se han puesto de relieve con audacia" (13).

También es destacable el final de la segunda ronda mediante dicho comunicado, pues marcó la primera vez que un parapsicólogo y un crítico colaboraron en una declaración de esta índole. Ahora se preparaba el escenario para ver si futuros ensayos Ganzfeld -practicados de acuerdo con estándares más rigurosos- continuarían proporcionando efectos indicativos. Pero antes que se diera a conocer el producto de los nuevos experimentos, ocurrió un incidente muy extraño.


El informe del Consejo Nacional de Investigaciones [EE.UU.]

“Quizás nuestros corolarios más sólidos se encuentren en el área de la parapsicología”, manifestó el orador leyendo su discurso preparado. Los asistentes permanecían en silencio cuando aquél hizo una pausa para lograr un ligero efecto dramático, y prosiguió: "El comité no encuentra ninguna justificación científica en las investigaciones realizadas durante 130 años para la existencia de fenómenos parapsicológicos" (14).

Los extractos corresponden a la perorata de John Swets en diciembre de 1987, ante los periodistas que repletaban el lugar. Swets era presidente de un comité creado por el Consejo Nacional de Investigación (NRC), cuyo cometido era evaluar diversas técnicas de mejoramiento de desempeño humano, y en las que estaba interesado el ejército norteamericano. Así, se organizó la conferencia para informar las secuelas de ese proyecto de dos años y que costó casi medio millón de dólares.

Tres años antes, el Instituto de Investigación del Ejército [Army Research Institute o ARI] pidió a dicho Consejo -una extensión de la Academia Nacional de Ciencias- que abordara fenómenos como el aprendizaje durante el sueño, visualizaciones guiadas, meditación, telepatía y clarividencia. Con vistas a garantizar equidad, el ARI generalmente nombraba a un observador imparcial a cargo de monitorear los contratos de investigación, pero en este caso designaron al doctor George Lawrence, un psicólogo militar civil con historial opuesto a la investigación psi. Por ejemplo, junto con Ray Hyman tuvo un rol decisivo al suprimir un proyecto de parapsicología en Stanford, financiado por el Pentágono en 1972 (15), y cuando el Consejo empezó a formar subcomités para explorar las diferentes áreas, señalaron a Hyman para comandar el grupo de parapsicología. En el momento en que Hyman ocupaba ese cargo, era además miembro activo del consejo ejecutivo del CSICOP.

Los únicos estudios psi evaluados en el reporte fueron aquéllos de Ganzfeld, y la apreciación del NRC se fundamentaba en el metanálisis por Hyman. Recordemos que dos años antes coincidía con Honorton en que “hay un efecto global significativo en esta base de datos que no puede explicarse razonablemente por informes selectivos o análisis múltiples”, y que “varios investigadores produjeron resultados significativos” (16); pues bien, ninguno de esos puntos se menciona en dicha reseña. Durante la conferencia de prensa, Hyman anunciaba que "la mala calidad en la investigación psi fue una sorpresa para todos nosotros, y creíamos que el trabajo terminaría siendo mejor" (17).

El comité del NRC solicitó informes de especialistas externos, pero en parapsicología no se consultó a ningún profesional del área; en cambio, encargaron un reporte al psicólogo James Alcock, quien como Hyman, también es miembro del CSICOP y ampliamente conocido por sus libros y artículos que atacan los trabajos en parapsicología.

También se pidió un dictamen al psicólogo Robert Rosenthal (Universidad de Harvard), mundialmente célebre en evaluar afirmaciones de estudios controvertidos en ciencias sociales, y junto con Monica Harris, preparó un documento sobre la calidad de los exámenes en cinco áreas abordadas por el comité. Refutando las opiniones de Hyman ante la prensa, escribieron que de esos cinco ámbitos “sólo los estudios Ganzfeld en PES cumplen con los requisitos básicos de un diseño experimental sólido" (18), y concluyeron: "La situación para el dominio de Ganzfeld parece razonablemente clara. Creemos que sería inverosímil considerar los datos nulos [esto es, inferir que los resultados se deben al azar] dada la p [probabilidad] combinada de estos 28 estudios (...). Cuando la tasa de precisión esperada bajo el valor nulo es 1/4, estimamos que el promedio obtenido es aproximadamente 1/3" (19).

En otras palabras, la pareja declaró que los resultados Ganzfeld no eran azarosos, y el índice de exactitud rondaba el 33%, cuando se esperaría un 25 si la "suerte" fuera el único motivo. Increíblemente, John Swets llamó a Rosenthal y le exigió que retirara el apartado que era favorable a la parapsicología, mas el autor se negó. En el relatorio final de la NRC, dicho artículo se cita sólo en las diversas secciones que tratan temas no relacionados con parapsicología, y tampoco se menciona nada en la parte que trata sobre ese tópico.

El psicólogo John Palmer, Charles Honorton y Jessica Utts, profesora de estadística en la Universidad de California (Davis), concibieron un rebatimiento amplio y detallado contra el informe del comité. Este escrito llevó al senador estadounidense Claiborne Pell a solicitar que la Oficina de Evaluación Tecnológica del Congreso emprendiera una indagatoria con un grupo más sensato. Su iniciativa dio lugar a un taller celebrado el 30 de septiembre de 1988, que reunió a parapsicólogos, críticos y expertos en campos vinculantes. El reporte de la instancia concluyó que la parapsicología necesita "una audiencia más justa en un espectro más amplio de la comunidad científica, para que los factores emocionales no impidan el análisis objetivo de resultados experimentales" (20).

Mucho más revelador fue un artículo escrito al año siguiente -como desafío al NRC- por el coronel retirado John Alexander, quien formó parte de la investigación castrense sobre varios temas perquiridos en el comité:

"Me desempeñaba como informador a los miembros de la junta mientras investigaron el Informe EHP [Enhancing Human Performance]. También fui encargado de Tecnología Humana Avanzada para el Comando de Seguridad e Inteligencia del Ejército (1982-1984), y durante la preparación de ese documento dirigí la Oficina de Conceptos de Sistemas Avanzados, en el Comando de Laboratorio del Ejército estadounidense. Creo tener buenas aptitudes para revisar las conclusiones del comité. Muchas organizaciones del Ejército ya venían experimentando con diversas técnicas para mejorar el desempeño humano, y con frecuencia habían visto resultantes muy llamativas (...). Varias personas en la alta dirección del Ejército consideraron que contratar un organismo tan prestigioso como la NRC (...) proporcionaría un informe creíble en que se podría basar la administración de fondos públicos para los cometidos de investigación militar, en el campo de la mejora del desempeño humano.

La tarea de administrar el contrato recayó en la ARI. Fueron ellos quienes propusieron que el doctor George Lawrence, psicólogo civil del Ejército con experiencia en biorretroalimentación, fuera Representante Técnico de Oficiales de Contratación (COTR), es decir, un observador imparcial que no participa en el estudio y garantiza que sea técnicamente sólido.

Desafortunadamente (...) Lawrence estaba lejos de ser ecuánime, pues tenía prontuarios por su postura firme y pública contra muchos ámbitos de análisis. De hecho, en una asignación previa con la Agencia de Proyectos de Investigación Avanzada de Defensa (DARPA), Lawrence tuvo un rol gravitante en el bloqueo de fondos para investigación psíquica (psi) en el Instituto de Stanford (SRI) (...). Para lograrlo, Lawrence había acudido al SRI con Ray Hyman, un conocido crítico de los fenómenos psi (...). Ambos terminaron efectivamente con la financiación de DARPA para el SRI, que era la única pesquisa patrocinada por el gobierno en ese momento.

Antes de organizarse la junta directiva del EHP, Lawrence me dijo en 1984 que trataba de incorporar a Hyman al mismo grupo, y lo consiguió. El problema respecto a la credibilidad del Informe es que Ray era la única persona asignada que demostró cierta familiaridad con la literatura de investigación parapsicológica, y desde el principio se conocía su postura incrédula. Hyman es miembro fundador del CSICOP, el autoproclamado 'grupo de vigilancia' que se opone a los estudios parapsicológicos (...)".

"Por lo anterior, cuestioné desde el inicio los inconvenientes de 'sesgo' y 'objetividad' aplicables a la génesis del comité. Parece claro que Lawrence, y luego Hyman y James Alcock (otro fundador del CSICOP y crítico de estos estudios) siguieron un camino intencional para desprestigiar el trabajo en parapsicología (...). A lo largo de la sección correspondiente del Informe EHP, la junta se refirió sólo a aquellos artículos publicados que respaldaban su posición, e ignoró el material favorable (...)".

"Entonces, ¿qué debemos colegir sobre el reporte EHP? (...). Primero, es muy relevante que un conjunto particular de desacreditadores no pudo encontrar ninguna 'prueba inconcusa' ni 'alternativa plausible' a la hipótesis psi (...). Segundo, deberíamos preocuparnos por que el tribunal científico más alto del país operó de manera tan parcial y dura, y no parece haber ningún canal para apelar o revisar su trabajo. ¿Y a qué le temen? ¿Es tan 'urgente' amparar la ortodoxia científica rehusando pruebas y suprimiendo opiniones contrarias?" (21).


Los estudios Autoganzfeld

Poco después de aparecer el relatorio por la Oficina del Congreso, se presentaron las secuelas de nuevos experimentos Ganzfeld que cumplían a cabalidad con los estándares rígidos descritos en el Comunicado Adjunto. Desde 1983, Honorton y sus colegas trabajaron en una nueva serie de testeos controlados por computadora o "Autoganzfeld", la cual continuó hasta 1989 cuando la ausencia de fondos obligó a cerrar el laboratorio de Honorton.

Los principales cambios fueron el uso de ordenadores para regular los ensayos, y la introducción de cámaras de video en circuito cerrado para presentar fragmentos de películas breves e imágenes estáticas como objetivos. Durante la sesión, ni el experimentador ni el receptor podían monitorear los eventos al interior de la sala del emisor, que también estaba aislada acústicamente y protegida contra influjos electromagnéticos.

Los objetivos dinámicos consistieron en ochenta fotografías y ochenta videos cortos, incluyendo pistas de sonido, todos grabados en cinta de video. Puesto que el metanálisis de los experimentos previos reveló un nexo positivo entre la tasa de aciertos y el uso de estos blancos, los diseñadores del Autoganzfeld deseaban probar si el empleo de aquéllos generaría mayores índices de éxito.

Los controles automatizados y recintos herméticos estaban concebidos para neutralizar fugas sensoriales por accidente o trampa intencional. Además, se incluyó a dos magos de escenografía que se especializaban en fingir aptitudes psi, con miras a comprobar si el Autoganzfeld tenía susceptibilidad a engaños o fraudes. Uno de ellos era Ford Kross, funcionario de la Asociación de Artistas Psíquicos, quien declaró por escrito: "En mi capacidad profesional como mentalista, revisé el sistema automatizado Ganzfeld en los Psychophysical Research Laboratories [PRL], y descubrí que proporciona una excelente seguridad contra el engaño de los sujetos" (22). El otro mago fue Daryl Bem, psicólogo de la Universidad de Cornell, quien convergió con las apreciaciones de su homólogo sobre los procedimientos de seguridad, y colaboró con Honorton en un artículo atañente a las experiencias Ganzfeld de 1994 (23). Bem ha ejercido como mentalista durante muchos años y también forma parte de la misma Asociación que Kross.


Resultados

En los seis años del Autoganzfeld participaron 100 hombres y 140 mujeres como receptores en 354 sesiones, con edades comprendidas entre 17 y 74 años, mientras que los estudios fueron conducidos por ocho encargados diferentes, incluyendo a Honorton.

Durante las once pruebas que totalizaron dicho número de sesiones, se obtuvieron 122 aciertos directos para una tasa de éxito global de 34%, cuando se esperaba un 25% por casualidad; así, estas secuelas son casi idénticas al promedio del 35% en el metanálisis de 1985. El nuevo intervalo de confianza del 95% osciló entre 30 y 39%, y las probabilidades de que esas resultantes no se producían por azar son de casi 45.000 a 1.

Asimismo, los testeos abarcaron todas las sesiones efectuadas a lo largo de seis años; en otras palabras, no existía un “archivador” de estudios no reportados. Se confirmó plenamente la hipótesis de que los objetivos dinámicos rendían mayores tasas de acierto, y en general, las sesiones que los empleaban arrojaron promedios satisfactorios del 40%, frente al 27% con objetivos estáticos (24).

Otras consecuencias incluyeron la corroboración de nexos entre el desempeño psi y varias características personales de los receptores, como extraversión, vivencias psi previamente informadas y la creatividad o dotes artísticos. Todos esos factores predijeron significativamente los éxitos, pero la relación con capacidades artísticas fue particularmente notoria. En una sesión con veinte estudiantes universitarios de la Escuela Julliard de Artes Escénicas, los sujetos lograron acertar en 50%, uno de los coeficientes más altos conocidos para una sóla muestra. Es más: seis de ocho músicos (75%) identificaron objetivos correctamente, con probabilidades de casi 250 a 1,25.


Y tenía que salir el melindroso fingido...

Años antes, Honorton y Hyman subrayaron la necesidad de incluir criterios estrictos y una mayor gama de expertos en estudios de parapsicología; así, las pruebas Autoganzfeld cumplieron con esas demandas. Sus frutos demostraron ser estadísticamente significativos y consistentes con aquéllos de la base de datos anterior; además, hubo enlaces entre variables conceptualmente relevantes y el desempeño psi, también replicando hallazgos precedentes. Hyman comentó: "Los experimentos de Honorton han producido resultados intrigantes (...). Si otros laboratorios independientes pueden generar secuelas parecidas con las mismas relaciones e igual atención a una metodología rigurosa, entonces es posible que la parapsicología finalmente haya capturado a su esquiva presa" (26).

Como implica el autor, los controles Autoganzfeld no estaban adheridos al parámetro de que las recreaciones fueran hechas por "un grupo más amplio de científicos", pero en 1995 las resultantes fueron repetidas por tres laboratorios adicionales. El primer segmento de la Tabla 7.1 muestra aquéllas de las primeras iteraciones Autoganzfeld en los Laboratorios de Investigación Psicofísica de Honorton (Princeton, Nueva Jersey), y los otros identifican las respuestas de laboratorios en tres países diferentes.

Tabla 7.1. Replicaciones Ganzfeld a partir de 1995.

En 1995, Dick Bierman (Universidad de Amsterdam) informaba que en cuatro experimentos las tasas de acierto llegaron al 34, 37,5, 40 y 36% para 124 sesiones, y el índice de satisfacción combinada fue de 37% (27). El mismo año, Robert Morris, Kathy Dalton, Deborah Delanoy y Caroline Watt divulgaron el corolario de 97 pruebas en la Universidad de Edimburgo (28), y finalmente Broughton y Alexander describían las consecuencias de 100 controles en el Instituto de Parapsicología de Carolina del Norte (29).

Los 28 estudios del metanálisis primigenio acarrearon una tasa de éxito combinada del 35%; más tarde, Robert Rosenthal la estimó en cerca del 33%, cuando se esperaba un 25 por obra del "azar". Como se puede ver en la Tabla 7.1, el promedio general de aciertos combinados en todos los experimentos alcanza un 34%, y Jessica Utts declaró: "Se trata de un efecto robusto, que si no ocurriera en un ámbito tan inusual, la ciencia ya no lo cuestionaría como fenómeno real. Es poco factible que los problemas metodológicos puedan explicar la notable consistencia de los resultados" (30).


Un nuevo "reto"

En 1999 apareció un "desafío" a las pretensiones de Honorton para replicar el Autoganzfeld. Los psicólogos Julie Milton y Richard Wiseman publicaron un breve artículo donde exhibían resultados de treinta estudios Ganzfeld desde 1987, el comienzo escogido para que “los diseñadores de las pruebas tuvieran acceso a Hyman y las directrices de Honorton (1986)" (31). Dichos controles se obtuvieron de catorce artículos escritos por diez personas de siete laboratorios, que comprenden en total 1198 sesiones; no se utilizó ningún criterio para seleccionar los ensayos, y sus autores siguieron una política de "incluir en nuestra base de datos todos los estudios psi que utilizaron la técnica Ganzfeld" (32).

El promedio de éxito combinado de esos 30 experimentos llega al 27,5%, un guarismo menor a los intervalos de confianza del 95% de los dos primeros y con más relevancia. Milton y Wiseman concluyeron: "Los nuevos estudios Ganzfeld muestran un tamaño del efecto cercano a cero, y una acumulación general estadísticamente no significativa (...). Este desdoro en la replicación podría indicar que los resultados Autoganzfeld eran falsos (...). Alternativamente, las diferencias de secuelas entre los Autoganzfeld y la nueva base de datos podrían deberse a que ésta última no se llevó a cabo en condiciones psi-conducentes. Cualquiera que sea el motivo, las resultantes Autoganzfeld no han sido replicadas por un 'espectro más amplio de investigadores', y no se puede considerar que el paradigma homónimo constituya evidencia sólida del funcionamiento psíquico" (33).

Sin embargo, más tarde se develó que Milton y Wiseman viciaron su análisis estadístico al no considerar el tamaño de la muestra. Dean Radin sumó el número total de aciertos y ensayos en esos treinta experimentos (el recurso estándar para realizar metanálisis), y encontró un producto estadísticamente significativo con probabilidades de 20 a 1.

Los treinta ensayos elegidos por la dupla variaron en tamaño desde cuatro hasta cien, pero se sirvió de un modo estadístico que ignoró el factor N (muestra). Supongamos que tenemos tres estudios, dos con N= 8 y dos aciertos (25%) y un tercero de N= 60 con 21 éxitos (35%). Si descartamos la cifra de muestras, el índice no ponderado de aciertos es sólo del 28%, pero el promedio reunido de todas las secuelas satisfactorias es poco menos del 33%, y en términos simples, este fue el equívoco del dueto "incrédulo", pues si hubiera sumado aciertos y errores, realizando luego una prueba-t simple y unidireccional, encontraría productos significativos al nivel del 5%. Como Utts observó más tarde, si Milton y Wiseman hubieran hecho el testeo binomial exacto, las resultantes habrían sido llamativas a un nivel inferior al 4%, con probabilidades contra el azar de 26 a 1.

Otro fallo del "reto" consistió en no incluir un estudio prolongado y de gran éxito por Kathy Dalton debido a una fecha límite arbitraria, a pesar de que se publicó casi dos años antes que el artículo de dicha pareja (34); tuvo amplia discusión entre los parapsicólogos, fue parte de una tesis doctoral en la universidad de Julie Milton, y se presentó en una conferencia presidida por Wiseman dos años antes de que ambos difundieran su "protesta".

En el Comunicado Conjunto, Hyman y Honorton pidieron a los futuros investigadores Ganzfeld, como parte de sus “protocolos más rigurosos”, que documentaran claramente el estado del experimento, es decir, si se pretendía confirmar hallazgos anteriores o pesquisar condiciones nuevas (35). La tercera falla por Milton y Wiseman fue que agrupaba todos los controles, independiente de si el estatus de cada uno era asertivo o exploratorio. En otras palabras, no hicieron ningún intento de definir el nivel en que los testeos individuales cumplían con el precepto Ganzfeld estándar.

El artículo de Milton-Wiseman abrió un vigoroso debate en línea, que culminó con un texto publicado en el Journal of Parapsychology, escrito conjuntamente por un psicólogo y dos parapsicólogos. Tras un breve resumen de la discusión hasta ese momento, Bem, Palmer y Broughton señalaron: "Una de las observaciones realizadas durante el debate fue que varios estudios que contribuyeron con puntuaciones z-negativas al análisis [es decir, las secuelas fueron menores de lo esperado por casualidad] habían utilizado procedimientos que se desviaban notablemente del protocolo Ganzfeld estándar, y semejante evolución no es mala ni fortuita. Muchos investigadores psi creen que la confiabilidad del método básico está suficientemente bien establecida, para justificar su uso como herramienta para una mayor exploración psi. De esa manera, y en lugar de seguir efectuando réplicas precisas, han ido modificando el proceso y extendiéndolo a territorio desconocido. No es sorprendente que tales desvíos del repriz exacto tengan un mayor riesgo de fallas; por ejemplo, en vez de emplear estímulos visuales, Willin ajustó el procedimiento Ganzfeld para ver si los emisores podían comunicar objetivos musicales a los receptores, y no fue así. Cuando esos estudios se incluyen en un metanálisis indiferenciado, el tamaño del efecto general se reduce, y malévolamente, el procedimiento Ganzfeld se convierte en víctima de su propio éxito" (36).

Bem, Palmer y Broughton se propusieron verificar su hipótesis de que las mermas en puntuaciones promedio se debían a que los controles eran explorativos y no confirmatorios. Se pidió a tres evaluadores independientes no familiarizados con estudios Ganzfeld recientes -y por ende desconocían el producto de los mismos- que calificaran el nivel en que cada uno de los testeos nuevos se apartaba del protocolo estándar. Luego se reexaminó la base de datos para probar el supuesto de que las tasas de aciertos estaban correlacionadas positivamente con el grado en que los procedimientos experimentales se adhirieron a los formalismos. Los evaluadores asignaron una clase a cada uno de los 40 estudios, y se promediaron sus categorías. La clasificación osciló de 1 a 7, donde éste último indica el mayor grado de cumplimiento del protocolo, como se describe en dos artículos por Honorton a principios de la década '90.


Resultados

Según la hipótesis, las tasas de éxito se correlacionaban significativamente con el rango en que las técnicas experimentales se ajustaron a los principios establecidos. Si definimos como “estándar” a aquellos estudios que se ubicaron por sobre el punto medio de la escala (4), entonces las recreaciones modélicas obtuvieron aciertos generales del 31,2%, mientras que los no paradigmáticos produjeron sólo 24%. Las secuelas son aún más espectaculares si consideramos sólo los controles de replicación clasificados en el puesto 6 y superiores: esas 21 pruebas (más de la mitad de la muestra) lograron un promedio de satisfacción general del 33%, casi igual a las instancias previas.

No tiene mucho sentido realizar más iteraciones, y varios de quienes tengan un compromiso previo con el pseudoescepticismo tal vez jamás cambien sus asertos públicos, sin importar cuántos estudios se implementen. Sólo se podrán lograr avances reales si los investigadores están dispuestos a explorar nuevas fronteras.

Las tablas adjuntas evidencian que las resultantes fueron repetidas por múltiples investigadores en diferentes laboratorios y culturas, con tasas de acierto similares. En 1996 Hyman escribió: “Los argumentos a favor del funcionamiento psíquico parecen mejores que nunca (...) no tengo una explicación preparada para estos efectos observados” (37), y así los escépticos de camelo perdieron la contienda.

Tabla 7.2. Reiteraciones desde 1996.

Tabla 7.3. Sinopsis (1974-1999).


Notas sobre el tamaño del efecto y la muestra

Vimos que los investigadores aislaron ciertas variables, como la capacidad artística y el uso de objetivos dinámicos, que parecen mejorar el rendimiento psi más allá de lo que se esperaría normalmente; pero hasta hoy el promedio global de aciertos se mantiene muy constante -alrededor de 33% frente al 25% por azar-, lo cual corresponde en términos generales a un éxito cada tres sesiones, mientras que la "suerte" predeciría uno de cada cuatro.

Puede que esto no sea muy impresionante, pero es aleccionador comparar los resultados con aquéllos de un importante ensayo médico, que buscaba definir si la aspirina reducía las chances de ataques al miocardio. El estudio se interrumpió luego de seis años, porque ya estaba claro que tomar dicho fármaco cumplía ese objeto, y se consideró injusto mantener el tratamiento alejado del grupo control que consumía placebos. Los frutos de esas pruebas se celebraron como un "gran avance científico", pero al final se descubrió que ingerir aspirina reduce la probabilidad de infartos en sólo 0,8%, un guarismo casi diez veces menor que el efecto observado en los experimentos Ganzfeld (38).

La prolongada controversia Ganzfeld se explica en parte porque la magnitud de las secuelas no es "lo suficientemente grande" para ser advertida, y sin ayuda de estadísticas. Cuando los tamaños del efecto son reducidos, se necesitan muestras grandes para proporcionar el poder estadístico con tal de percibir la resultante. El testeo de la aspirina se realizó con más de 22.000 participantes, pero si hubiera comportado 2200, las consecuencias no habrían tenido significación estadística.

Si el verdadero índice de aciertos en las pruebas Ganzfeld fue sólo 33% frente al 25% esperado, entonces un experimento con treinta sesiones (promedio de los 28 estudios del metanálisis de 1985) tiene aproximadamente una probabilidad entre seis de encontrar un efecto llamativo, al nivel del 5%; y con cincuenta, las posibilidades llegan a una de cada tres. De esta manera, hay que expandir el porte de la muestra a cien sesiones para alcanzar un punto de equilibrio, donde las chances quedan en 50/50 de hallar respuestas apreciables (39).

Algunos "escépticos" semejan tener problemas para asimilar la importancia del tamaño de la muestra, o tal vez deciden ignorarlo. Jessica Utts complementa: “Cuando se trata de un efecto pequeño o mediano, se necesitan cientos o miles de intentos para establecer una 'significancia estadística' (...). A pesar de las continuas protestas por Hyman sobre la falta de repetibilidad en parapsicología, nunca he visto una iniciativa escéptica de concretar experimentos con suficientes ensayos para acercarse siquiera a asegurar el éxito" (40).


Referencias

1. Honorton, “Rhetoric over Substance", p. 206; Bem y Honorton, “Does Psi Exist?”
2. Radin, The Conscious Universe, p. 79.
3. Blackmore, “The Extent of Selective Reporting of ESP Ganzfeld Studies”.
4. Hyman y Honorton, “A Joint Communiqué", p. 352.
5. Honorton, “Meta-analysis of Psi Ganzfeld Research: A Response to Hyman”; Radin, The Conscious Universe, p. 81–82.

6. Harris y Rosenthal, “Postscript to ‘Human Performance Research’”; Saunders, “On Hyman’s Factor Analyses”; Utts, “Rejoinder”.

7. Saunders, “On Hyman’s Factor Analyses”, p. 87.
8. Hyman y Honorton, “A Joint Communiqué”, p. 353.
9. Scott, “Comment on the Hyman-Honorton Debate”, p. 349.
10. Hyman y Honorton, “A Joint Communiqué”, p. 351.
11. Radin, The Conscious Universe, p. 85.
12. Hyman, “A Critical Overview of Parapsychology”.
13. Rosenthal, “Meta-analytic Procedures and the Nature of Replication", p. 333.
14. Descrito en Broughton, Parapsychology, p. 322. Ver también “Academy Helps Army Be All That It Can Be” (noticias y comentarios); Druckman y Swets, Enhancing Human Performance.

15. Alexander, “Enhancing Human Performance”, p. 12.
16. Hyman y Honorton, “A Joint Communiqué”, p. 352.
17. “Academy Helps Army Be All That It Can Be”.
18. Harris y Rosenthal, “Human Performance Research”, p. 53.
19. Ibídem, p. 51.
20. “Report of a Workshop on Experimental Parapsychology”.
21. Alexander, “Enhancing Human Performance”.
22. Bem y Honorton, “Does Psi Exist?”
23. Ibídem.
24. Utts, “Replication and Meta-analysis in Parapsychology".
25. Bem y Honorton, “Does Psi Exist?” Ver también Schmeidler, Parapsychology and Psychology; Dalton, “Exploring the Links”; Krippner, “Creativity and Psychic Phenomena”; Palmer, “Extrasensory Perception”; Honorton, Ferrari y Bem, “Extraversion and ESP Performance”.

26. Hyman, “Comment”, p. 392.
27. Bierman, “The Amsterdam Ganzfeld Series III & IV”.
28. Morris, Dalton, Delanoy y Watt, “Comparison of the Sender/No Sender Condition in the Ganzfeld".

29. Broughton y Alexander, “Autoganzfeld II”.
30. Utts, “An Assessment of the Evidence for Psychic Functioning”, p. 21.
31. Milton y Wiseman, “Does Psi Exist?”, p. 388.
32. Ibídem, p. 388.
33. Ibídem, p. 391.
34. Dalton, “Exploring the Links”.
35. Hyman y Honorton, “A Joint Communiqué”, p. 361.
36. Bem, Palmer y Broughton, “Updating the Ganzfeld Database”, p. 208.
37. Hyman, “Evaluation of Program on Anomalous Mental Phenomena”.
38. Steering Committee of the Physicians Health Research Group, “Preliminary Report”.

39. Utts, “The Ganzfeld Debate”.
40. Utts, “Response to Ray Hyman’s Report”, p. 3.