© 1996 Dr. Ken Glasziou
© 1996 The BrotherHood of Man Library
Los artículos presentados en esta Sección parecen entrar en una de las categorías definidas en LU 101:4.6-10 del Libro de Urantia, por el cual se permitió a los Reveladores eliminar el error, restaurar el conocimiento perdido, llenar los vacíos faltantes o suministrar datos cósmicos para iluminar las enseñanzas espirituales.
«En aquellos soles que están integrados en los canales de la energía espacial, la energía solar se libera mediante diversas y complejas cadenas de reacción nuclear, y la más común de ellas es la reacción hidrógeno-carbono-helio. En esta metamorfosis, el carbono actúa como un catalizador de la energía, puesto que no sufre ningún tipo de cambio efectivo durante este proceso de convertirse el hidrógeno en helio. En ciertas condiciones de altas temperaturas, el hidrógeno penetra en los núcleos del carbono. Puesto que el carbono no puede contener más de cuatro de estos protones, cuando alcanza este estado de saturación empieza a emitir protones tan rápidamente como llegan los nuevos. En esta reacción, las partículas entrantes de hidrógeno salen como átomos de helio». (LU 41:8.1)
«Todos estos fenómenos indican un enorme gasto de energía, y las fuentes de la energía solar, citadas por orden de importancia, son: 1. La aniquilación de los átomos y, finalmente, de los electrones…» (LU 41:7.4)
En 1934, cuando se recibió el documento que proporcionaba esta información sobre las fuentes de energía solar, se desconocían los detalles de la conversión de hidrógeno en helio, postulada por J. Perrin en 1920. Dos procesos principales para esta conversión son la cadena protón-protón propuesta por H.A. Bethe y C.L. Critchfield en 1938, y el ciclo carbono-nitrógeno propuesto independientemente por Bethe y von Weizsacker en 1939. Naturalmente, Gardner afirma que el Dr. Sadler añadió la información sobre el ciclo del carbono posteriormente a las publicaciones de Bethe.
El ciclo carbono-nitrógeno que convierte el hidrógeno en helio con liberación de energía es una reacción catalítica en la que el carbono entra y sale de la reacción aparentemente ileso. En realidad, se trata de una reacción muy compleja en la que se generan varios isótopos de carbono, nitrógeno y oxígeno antes de que se regenere el carbono ordinario y surja el helio. La simplicidad de la redacción de la cita del Documento de Urantia de LU 41:8.1 no despierta confianza en el postulado de que el escritor estaba familiarizado con la obra de Bethe.
Gardner también menciona la cita de LU 41:7.4 (p. 189), pero en este caso está mal citada en un intento de ridiculizar el contenido científico de los Documentos de Urantia. Gardner establece esto en el contexto de estar en el texto original, por lo tanto (según Gardner) no se puede modificar ni eliminar. Él afirma:
«Ahora se sabe que la energía radiante del sol se produce mediante una reacción termonuclear en la que el hidrógeno se convierte en una variedad de helio. En este proceso no se destruyen electrones ni protones. Cuando se escribieron los Documentos de Urantia, se creía ampliamente que la energía radiante del sol procedía de la aniquilación de átomos y protones. Como dice Sir James Jeans en The Universe Around Us (El universo que nos rodea), la energía del sol ‘se origina de la aniquilación de electrones y protones en el sol. El sol está destruyendo su sustancia para que podamos vivir.’ Esta es la visión que adopta el LU. La principal fuente de energía, afirma el LU (en UB 41:7.4) es ‘la aniquilación de los átomos y, eventualmente, de los protones’».
La redacción real de los Documentos de Urantia es «la aniquilación de los átomos y, eventualmente, de los electrones». Gardner ha sustituido «electrones» por «protones» aparentemente de conformidad con su cita de Jeans. El comentario de que en el proceso no se destruyen ni electrones ni protones parece suyo y es incorrecto. El proceso general es que cuatro átomos de hidrógeno, formados por cuatro protones y cuatro electrones, se convierten en un solo átomo de helio que tiene dos protones, dos neutrones y dos electrones. Ya sea que el proceso sea la cadena protón-protón (que se cree que es dominante en estrellas como nuestro Sol) o a través del ciclo carbono-nitrógeno (dominante en estrellas más grandes y calientes), en cada proceso se liberan dos positrones (antielectrones) y se aniquilan interactuando con dos electrones. De ahí que la afirmación del Documento de Urantia de que la aniquilación de los átomos y, eventualmente, de los electrones es de primera importancia para la producción de energía solar sea bastante correcta y quizás también sea profética en relación con la cadena protón-protón para la producción de helio propuesta por Bethe y Critchfield en 1938.
1. «Los protones cargados y los neutrones no cargados del núcleo del átomo se mantienen unidos gracias al funcionamiento alternativo del mesotrón, una partícula de materia 180 veces más pesada que el electrón. Sin esta disposición, la carga eléctrica transportada por los protones desorganizaría el núcleo atómico.». LU 42:8.3
2. «Tal como los átomos están constituidos, ni las fuerzas eléctricas ni las gravitatorias podrían mantener unido el núcleo. La integridad del núcleo se mantiene gracias al funcionamiento cohesivo recíproco del mesotrón, que es capaz de mantener unidas las partículas cargadas y no cargadas debido al poder superior de su fuerza-masa y a su función adicional de hacer que los protones y los neutrones cambien constantemente de lugar. El mesotrón hace que la carga eléctrica de las partículas nucleares sea lanzada sin cesar de un sitio para otro entre los protones y los neutrones. Durante una fracción infinitesimal de segundo, una partícula nuclear dada es un protón cargado, y a la fracción siguiente es un neutrón no cargado. Estas alternancias del estado energético son tan increíblemente rápidas que la carga eléctrica no tiene la menor oportunidad de funcionar como influencia disruptiva. El mesotrón funciona así como una partícula «portadora de energía» que contribuye poderosamente a la estabilidad nuclear del átomo». (LU 42:8.4)
Para mí, las declaraciones revisadas en este artículo, provenientes de un Documento de Urantia que se dice fue escrito en 1934, son verdaderamente notables. Las leí por primera vez a principios de los años 1970 y reconocí los párrafos 1 y 2 como los postulados básicos de una teoría por la que el físico japonés Hideki Yukawa recibió el Premio Nobel en 1948. Desde los años 1950 a los años 1970, la física de partículas estuvo en un estado de confusión debido a la multitud de partículas subatómicas que surgían de los aceleradores de partículas. A medida que se anunciaban nuevos conceptos y descubrimientos, seguí anotándolos en los márgenes de UB 42:8.4, lo que finalmente se volvió algo lioso y confuso. A veces sentí que no había mucho de correcto en esta página, otras veces me maravillé de su precisión.
En los últimos años ha aparecido una cantidad considerable de información sobre la historia del desarrollo del actual «modelo estándar» de estructura atómica. Aunque se reconoce que es incompleto, el modelo estándar ha aumentado enormemente nuestra comprensión de la naturaleza básica de la materia. La fuerza electromagnética y la fuerza débil de la desintegración radiactiva se han unificado con éxito para producir la teoría «electrodébil». Hasta ahora esta no se ha unificado con la teoría de la fuerza «fuerte» que mantiene unido el núcleo atómico. La fuerza de gravedad sigue siendo intratable a la unificación con las demás.
En la teoría cuántica del electromagnetismo, dos partículas cargadas interactúan cuando una emite un fotón y la otra lo absorbe. En 1932, Yukawa decidió intentar un enfoque similar para describir el campo de fuerza nuclear. Escribió: «…parecía probable que la fuerza nuclear fuera una tercera fuerza fundamental, no relacionada con la gravitación o el electromagnetismo…que también podría encontrar expresión como un campo…Entonces, si uno visualiza el campo de fuerza como un juego de ‘captura’ entre protones y neutrones, el quid del problema sería encontrar la naturaleza de la ‘bola’ o partícula». Este trabajo se publicó por primera vez en japonés en 1935, pero no era muy conocido en Estados Unidos.
Al principio, Yukawa siguió el trabajo de Heisenberg y utilizó un campo de electrones para suministrar la fuerza nuclear entre protones y neutrones. Esto llevó a problemas intratables. En 1934 decidió «dejar de buscar entre las partículas conocidas la partícula del campo de fuerza nuclear.» Escribió: «El punto crucial llegó una noche de octubre. La fuerza nuclear es efectiva a distancias extremadamente pequeñas, del orden de 0,02 billonésimas de centímetro. Mi nueva idea fue darme cuenta de que esta distancia y la masa de la nueva partícula que estaba buscando están inversamente relacionadas entre sí». Se dio cuenta de que podía corregir el alcance de la fuerza nuclear si permitía que la pelota que participara en el juego de «atrapar» fuera aproximadamente 200 veces más pesada que el electrón.
Durante un corto tiempo, la «bola» de Yukawa pasó a ser conocida como «mesotrón», pero pronto se redujo a mesón. La palabra pasó a aplicarse a una variedad de partículas portadoras de energía con similitudes con el fotón.
3. «La presencia y el funcionamiento del mesotrón explican también otro enigma atómico. Cuando los átomos actúan de forma radioactiva, emiten mucha más energía de la que se podría esperar. Este exceso de radiación procede de la desintegración del mesotrón «portador de energía», que se convierte así en un simple electrón. La desintegración mesotrónica también va acompañada de la emisión de ciertas pequeñas partículas no cargadas». (LU 42:8.5)
Esta afirmación amplía la teoría de Fermi de 1934 sobre la desintegración radiactiva del neutrón. Yukawa había considerado que un «mesotrón» también podría actuar como «pelota» en el juego de «atrapar» durante la desintegración radiactiva. Después de volver a realizar sus cálculos, en 1938 publicó un artículo en el que predecía las propiedades de dicho mesotrón, al que ahora llamó fotón «débil». Con el tiempo se le conoció como la partícula «W».
Dado que está destinado a dar lugar a un electrón cargado negativamente, este «mesotrón» de desintegración radiactiva, como se describe en el Documento de Urantia, se diferencia obviamente del «mesotrón» que transporta carga positiva entre protones y neutrones. El documento también lo relaciona con la producción de pequeñas partículas descargadas, que recibirían el nombre de «neutrinos».
Los párrafos 1-3 se acercan a la ciencia contemporánea, pero increíblemente especulativa, de mediados a finales de los años treinta. Describen tres partículas hipotéticas: el pión «mesotrón» (encontrado en 1947), la partícula W «mesotrón» (encontrada en 1983) y las pequeñas partículas sin carga, «neutrinos» (encontradas en 1956).
El comentario del párrafo 2 que dice: «las alternancias de estado energético son increíblemente rápidas…» es interesante. Debido a su ubicación en el texto, califica sólo al «mesotrón» que transporta carga entre los protones y los neutrones y no al «mesotrón» de la desintegración radiactiva. Según el premio Nobel Steven Weinberg (1992), estas alternancias ocurren en el orden de un millón de millón de millón de millonésima de segundo. Por el contrario, el proceso de desintegración radiactiva mediado por «mesotrón» descrito en el párr. 3 tarda aproximadamente una centésima de segundo. Juntas, estas tres declaraciones del Documento de Urantia indican que el autor tenía un amplio conocimiento de la física nuclear teórica: un individuo realmente raro, y especialmente antes de la carrera para construir la bomba atómica.
4. «El mesotrón explica ciertas propiedades cohesivas del núcleo atómico, pero no da cuenta de la cohesión entre los protones ni de la adhesión entre los neutrones. La fuerza paradójica y poderosa que asegura la integridad cohesiva atómica es una forma de energía que aún no se ha descubierto en Urantia». (LU 42:8.6)
Esta declaración del Documento de Urantia afirma definitivamente que el «mesotrón» que transporta carga positiva entre protones y neutrones no tiene en cuenta ciertas propiedades cohesivas especiales del núcleo atómico. Luego nos dice que hay un aspecto de esta fuerza que aún no se ha descubierto en Urantia.
Leon Lederman era un joven investigador en 1950 que más tarde se convirtió en director del Laboratorio Fermi. Le concedieron el Premio Nobel en 1988. En su libro La partícula de Dios (The God Particle) comenta: «La partícula caliente de 1950 fue el pión o mesón pi (mesotrón de Yukawa), como también se le llama. El pión había sido predicho en 1936 por un físico teórico japonés, Hideki Yukawa. Se pensaba que era la clave de la fuerza fuerte, que en aquellos días era el gran misterio. Hoy pensamos en la fuerza fuerte en términos de gluones. Pero en aquel entonces (es decir, en la década de 1950), los piones que vuelan de un lado a otro entre los protones para mantenerlos unidos firmemente en el núcleo eran la clave, y necesitábamos crearlos y estudiarlos».
Esta fuerza, desconocida en 1934 (y de hecho en 1955 cuando se publicó El Libro de Urantia) se conoce ahora como la fuerza del color. Al escribir sobre esto en su libro, La Explosión de las Partículas (The Particle Explosion), Close, Marten y Sutton afirman: «En las décadas de 1940 y 1950, los teóricos pensaban que los piones eran los transmisores de la fuerza fuerte. Pero experimentos posteriores demostraron que los piones y otros hadrones son partículas compuestas, construidas a partir de quarks, y la teoría de la fuerza fuerte tuvo que ser revisada por completo. Ahora creemos que es el color dentro del protón y del neutrón lo que los atrae entre sí para formar núcleos. Este proceso puede tener similitudes con la forma en que la carga eléctrica dentro de los átomos logra construir moléculas complejas. Así como los electrones se intercambian entre átomos unidos dentro de una molécula, también se intercambian quarks y antiquarks (en grupos que llamamos ‘piones’) entre los protones y neutrones en un núcleo».
El mandato a los reveladores permitió «el suministro de una información que colma las lagunas vitales existentes en los conocimientos adquiridos de otras maneras». (LU 101:4.9) Si algún físico alguna vez utilizó efectivamente la información contenida en LU 42:8.7, probablemente nunca lo sabremos. Pero hay «más cosas en el cielo y en la tierra»… Por ejemplo, «se espera que la física alcance algún día el nivel último de la naturaleza en el que todo se pueda describir y a partir del cual se desarrolle todo el universo. Esta creencia podría llamarse la búsqueda del ultimón». (de E. David Peat, 1988, Supercuerdas y la Búsqueda de la Teoría del Todo, Superstrings and the Search for the Theory of Everything.) Aquí hay una curiosa coincidencia. La partícula que los Documentos de Urantia llamaban mesotrón quedó reducida a mesón. Llama ultimatón al componente básico de la materia. ¿Será algún día identificado con el ultimón?
«En los soles grandes cuando el hidrógeno está agotado y la contracción gravitatoria tiene lugar a continuación, si dicho cuerpo no es lo suficientemente opaco como para retener la presión interna que apoya las regiones gaseosas exteriores, entonces se produce un colapso repentino. Los cambios eléctrico-gravitatorios dan origen a inmensas cantidades de minúsculas partículas desprovistas de potencial eléctrico, y estas partículas se escapan rápidamente del interior solar, ocasionando así en pocos días el desmoronamiento de un sol gigantesco». (LU 41:8.3)
En 1934 no se había demostrado la existencia de partículas diminutas desprovistas de potencial eléctrico que pudieran escapar fácilmente del interior de una estrella en colapso. De hecho, la realidad de tales partículas no se confirmó hasta 1956, un año después de la publicación de El Libro de Urantia. La existencia de partículas que pudieran tener tales propiedades fue propuesta como sugerencia por Wolfgang Pauli en 1932, porque los estudios sobre la desintegración beta radiactiva de los átomos indicaban que un neutrón podía desintegrarse en un protón y un electrón, pero las mediciones habían demostrado que la energía de masa combinada del electrón y el protón no sumaban la del neutrón. Para explicar la energía faltante, Pauli sugirió que se emitía una pequeña partícula neutra y luego, ese mismo día, mientras almorzaba con el eminente astrofísico Walter Baade, Pauli comentó que había hecho lo peor que un físico teórico podía hacer: había propuesto una partícula que nunca podría ser descubierta porque no tenía propiedades. Poco después, Enrico Fermi retomó la idea de Pauli e intentó publicar un artículo sobre el tema en la prestigiosa revista científica Nature. Los editores rechazaron el artículo de Fermi por considerarlo demasiado especulativo. Esto fue en 1933, el año anterior a la recepción del correspondiente Documento Urantia.
Algo interesante a tener en cuenta es la afirmación del Libro de Urantia de que durante el colapso de la estrella se liberarían en grandes cantidades pequeñas partículas desprovistas de potencial eléctrico. Si, en 1934, un autor que no fuera un experto en física de partículas estaba profetizando sobre la formación de una estrella de neutrones (una propuesta tremendamente especulativa de Zwicky y Baade a principios de la década de 1930), entonces seguramente ese autor habría estado pensando en la inversión de la desintegración radiactiva beta en la que un protón, un electrón y la pequeña partícula neutra de Pauli se juntarían para formar un neutrón.
La desintegración radiactiva beta se puede escribir…
1. neutrón ⟶ protón + electrón + LNP donde LNP significa pequeña partícula neutra. Por lo tanto lo inverso debería ser:
2. LNP + electrón + protón ⟶ neutrón
Para que esto ocurra, un electrón y un protón deben comprimirse para formar un neutrón, pero de alguna manera tendrían que agregar una pequeña partícula neutra para compensar la masa-energía faltante. Así, en términos de conceptos científicos especulativos, en 1934, El Libro de Urantia parece haber puesto las cosas al revés, ha predicho una gran liberación de LNP, cuando la reversión de la desintegración radiactiva beta parece exigir que las LNP desaparezcan.
La idea de una estrella de neutrones se consideró altamente especulativa hasta 1967. La mayoría de los astrónomos creían que las estrellas de tamaño medio, como nuestro Sol, incluidas las estrellas muy masivas, terminaban sus vidas como enanas blancas. Las propiedades teóricas de las estrellas de neutrones eran demasiado absurdas; por ejemplo, un dedal pesaría unos 100 millones de toneladas. Una propuesta alternativa favorable era que se suponía que las estrellas grandes eliminarían su masa excedente poco a poco hasta llegar a menos de 1,4 masas solares (conocido como límite de Chandrasekhar), cuando podrían retirarse como enanas blancas respetables. Este proceso no implicó la liberación de grandes cantidades de pequeñas partículas desprovistas de potencial eléctrico que acompañan al colapso estelar como se describe en la cita ofrecida del Libro de Urantia.
El distinguido astrofísico ruso Igor Novikov ha escrito: «Aparentemente, los astrónomos no intentaron realizar búsquedas serias de estrellas de neutrones o agujeros negros antes de la década de 1960. Se suponía tácitamente que estos objetos eran demasiado excéntricos y muy probablemente eran fruto de las ilusiones de los teóricos. Preferiblemente se evitaba hablar de ellos. A veces se los mencionaba vagamente con un comentario que sí, se podían formar, pero con toda probabilidad esto nunca había sucedido. En cualquier caso, si existieran, entonces no podrían ser detectadas».
La aceptación de la existencia de estrellas de neutrones ganó terreno lentamente con los descubrimientos que acompañaron el desarrollo de la radioastronomía y la astronomía de rayos X. La nebulosa del Cangrejo jugó un papel central cuando surgieron ideas sobre ella en la década de 1950-1960. Observada originalmente como una explosión en el cielo por astrónomos chinos en 1054, la nebulosa del Cangrejo se convirtió en objeto de mayor interés cuando, en 1958, Walter Baade informó observaciones visuales que sugerían ondas en movimiento en su nebulosidad. Cuando dispositivos electrónicos sensibles reemplazaron la placa fotográfica como medio de detección, la frecuencia de oscilación de lo que se pensaba que era una estrella enana blanca en el centro de la nebulosa del Cangrejo resultó ser de aproximadamente 30 veces por segundo.
Para una estrella enana blanca con un diámetro del orden de 1.000 km, una velocidad de rotación de incluso una vez por segundo provocaría su desintegración debido a las fuerzas centrífugas. Por lo tanto, este período de pulsación notablemente corto implicaba que el objeto responsable de las variaciones de luz debía ser mucho más pequeño que una enana blanca, y el único candidato posible para tales propiedades parecía ser una estrella de neutrones. La aceptación final se produjo con imágenes del centro de la nebulosa del Cangrejo enviadas a la Tierra por el observatorio orbital de rayos X Einstein en 1967. Estas confirmaron y amplificaron la evidencia obtenida por observaciones anteriores realizadas tanto con telescopios ópticos como con radiotelescopios.
La reversión de la desintegración beta, como se muestra en la ecuación 2 implica una triple colisión, un evento extremadamente improbable, a menos que dos de los componentes se combinen en un estado metaestable, un hecho que probablemente no sea obvio para un observador no experto.
El probable curso evolutivo del colapso de las estrellas masivas sólo se ha dilucidado desde la aparición de los ordenadores rápidos. Estas estrellas comienzan su vida compuestas principalmente de gas hidrógeno que se quema para formar helio. La energía nuclear liberada de esta manera frena el impulso gravitacional de colapsar. Una vez agotado el hidrógeno del núcleo central, el núcleo comienza a encogerse y calentarse, lo que hace que las capas exteriores se expandan. Con el aumento de temperatura en el núcleo, el helio se fusiona para dar carbono y oxígeno, mientras que el hidrógeno alrededor del núcleo continúa produciendo helio. En esta etapa la estrella se expande hasta convertirse en una gigante roja.
Después del agotamiento del helio en el núcleo, se produce nuevamente una contracción gravitacional y el aumento de temperatura permite que el carbono se queme para producir neón, sodio y magnesio, después de lo cual la estrella comienza a encogerse hasta convertirse en una gigante azul. Sigue la quema de neón y oxígeno. Finalmente, el silicio y el azufre, los productos de la quema de oxígeno, se encienden para producir hierro. Los núcleos de hierro no pueden liberar energía al fusionarse, por lo que, cuando se agota su fuente de combustible, el horno en el centro de la estrella se apaga. Ahora nada puede frenar el ataque del colapso gravitacional, y cuando el núcleo de hierro alcanza una masa crítica de 1,4 veces la masa de nuestro sol, y el diámetro de la estrella es aproximadamente la mitad del de la Tierra, el destino de la estrella está sellado.
En unas pocas décimas de segundo, la bola de hierro colapsa hasta alcanzar unos 50 kilómetros de diámetro y luego el colapso se detiene cuando su densidad se aproxima a la del núcleo atómico y los protones y neutrones no pueden compactarse más. La detención del colapso envía una tremenda onda de choque a través de la región exterior del núcleo.
La luz que vemos de nuestro sol proviene únicamente de su capa superficial exterior. Sin embargo, la energía que alimenta la luz solar (y la vida en la Tierra) se origina en el denso y caliente horno termonuclear del núcleo del Sol. Aunque la luz solar tarda sólo unos ocho minutos en viajar del Sol a la Tierra, la energía del núcleo solar que da lugar a esta luz solar tarda del orden de un millón de años en difundirse desde el núcleo hasta la superficie. En otras palabras, un sol (o estrella) es relativamente «opaco» (según El Libro de Urantia, LU 41:8.3) a la energía que se difunde desde su núcleo termonuclear hasta su superficie, por lo que proporciona la presión necesaria para evitar el colapso gravitacional. Pero esto no es cierto en el caso de las pequeñas partículas neutras, conocidas desde mediados de los años 1930 con el nombre de neutrinos. Estas partículas son tan pequeñas y no reactivas que su paso desde el núcleo de nuestro sol hasta su exterior tarda sólo unos 3 segundos.
Debido a que los neutrinos pueden escapar con tanta facilidad, desempeñan un papel fundamental en provocar la muerte repentina de la estrella y la consiguiente explosión. Los neutrinos se forman de diversas formas, muchas de ellas como pares neutrino-antineutrino a partir de rayos gamma de alta energía. Otros surgen cuando los protones comprimidos capturan un electrón (o expulsan un positrón) para convertirse en neutrones, reacción que va acompañada de la liberación de un neutrino. De esta manera se liberan alrededor de 1057 neutrinos electrónicos. Las reacciones de corriente neutra de las partículas Zo de fuerza débil también contribuyen con neutrinos electrónicos junto con los neutrinos muones y tau «pesados».
Juntos, estos neutrinos constituyen una «gran cantidad de pequeñas partículas desprovistas de potencial eléctrico» que escapan fácilmente del interior de la estrella. Los cálculos indican que transportan el noventa y nueve por ciento de la energía liberada en la explosión final de la supernova. ¡El gigantesco destello de luz que acompaña a la explosión representa sólo una parte del uno por ciento restante! Aunque la mayor parte de los neutrinos y antineutrinos se libera durante la explosión final, también se producen a las enormes temperaturas que alcanza el núcleo interno durante las etapas finales de la contracción.
La oportunidad de confirmar la liberación de neutrinos que supuestamente acompañaron la espectacular muerte de una estrella gigante llegó en 1987, cuando se produjo una explosión de supernova, visible a simple vista, en la Gran Nube de Magallanes, vecina de nuestra galaxia, la Vía Láctea. Los cálculos indicaban que esta supernova, denominada SN1987A, debería dar lugar a una explosión de neutrinos con una densidad de 50 mil millones por centímetro cuadrado cuando finalmente llegara a la Tierra, aunque se expandiera como una «superficie» esférica originada a una distancia de 170.000 años luz. Esta explosión de neutrinos se observó en los enormes detectores de neutrinos de Kamiokande en Japón y de Fairport, Ohio, en Estados Unidos, con una duración de apenas 12 segundos, y confirmó las simulaciones por ordenador que indicaban que deberían difundirse a través del denso núcleo con relativa lentitud. A partir de la energía media y del número de «impactos» de los neutrinos en los detectores, se pudo estimar que la energía liberada por SN1987 ascendió a 2-3 x 1053 ergios. Esto es igual a la energía de enlace gravitacional calculada que sería liberada por el colapso del núcleo de una estrella de aproximadamente 1,5 masas solares con respecto al diámetro de una estrella de neutrones. Así, SN1987A proporcionó una confirmación notable del panorama general de la formación de estrellas de neutrones desarrollado durante los últimos cincuenta años. Es importante destacar que también confirmó que El Libro de Urantia tenía sus datos correctos mucho antes de que el concepto de estrellas de neutrones productoras de neutrinos alcanzara respetabilidad.
«En los soles grandes, cuando se agota el hidrógeno y se produce una contracción por gravedad, y dicho cuerpo no es lo suficientemente opaco para retener la presión interna de soporte de las regiones gaseosas exteriores, se produce un colapso repentino. Los cambios gravitacional-eléctricos dan origen a grandes cantidades de partículas diminutas desprovistas de potencial eléctrico, y dichas partículas escapan fácilmente del interior solar, provocando así el colapso de un sol gigantesco en unos pocos días». (LU 41:8.3)
Para mediados de los años treinta eso fue toda una declaración. Estas diminutas partículas que ahora llamamos neutrinos eran totalmente especulativas a principios de la década de 1930 y debían explicar la masa-energía faltante en la desintegración radiactiva beta.
A principios de la década de 1930, la idea de que podrían ocurrir explosiones de supernovas y dar como resultado la formación de estrellas de neutrones fue ampliamente publicitada por Fritz Zwicky del Instituto de Tecnología de California (Caltec), quien trabajó en el departamento del profesor Millikan. Durante un período a mediados de los años treinta, Zwicky también estuvo en la Universidad de Chicago. Se dice que el Dr. Sadler conoció a Millikan. Entonces, las posibilidades alternativas para el origen de la cita anterior de El Libro de Urantia podrían ser:
Los reveladores siguieron su mandato y utilizaron una fuente humana de información sobre supernovas, posiblemente Zwicky.
El Dr. Sadler había aprendido acerca de las diminutas partículas desprovistas de potencial eléctrico a través de Zwicky, Millikan o alguna otra persona con conocimientos y las incorporó a El Libro de Urantia.
Es información proporcionada para llenar los vacíos que faltan en el conocimiento adquirido de otro modo según lo permitido en el mandato. (LU 101:4.9)
Zwicky tenía reputación de ser un científico brillante, pero dado a muchas especulaciones descabelladas, algunas de las cuales resultaron ser correctas. Un artículo publicado por Zwicky y Baade en 1934 proponía que las estrellas de neutrones se formarían en el colapso estelar y que el 10% de su masa se perdería en el proceso. (Phys. Reviews. Vol. 45)
En Black Holes and Time Warps: Einstein’s Outrageous Legacy (Picador, Londres, 1994), un libro que cubre en detalle el trabajo y el pensamiento de este período, K.S. Thorne, Profesor Feynman de Física Teórica en Caltec, escribe: «A principios de la década de 1930 , Fritz Zwicky y Walter Baade unieron fuerzas para estudiar las novas, estrellas que repentinamente brillan y brillan 10.000 veces más que antes. Baade tenía conocimiento de pruebas provisionales de que, además de las novas ordinarias, existían novas superluminosas, que tenían aproximadamente el mismo brillo. pero como se pensaba que ocurrían en nebulosas mucho más allá de nuestra Vía Láctea, debían indicar acontecimientos de extraordinaria magnitud. Baade recopiló datos sobre seis de esas novas que se habían producido durante el siglo actual.»
"Mientras Baade y Zwicky luchaban por comprender las supernovas, James Chadwick, en 1932, informó sobre el descubrimiento del neutrón. Esto era justo lo que Zwicky necesitaba para calcular que si se podía hacer que una estrella implosionara hasta que alcanzara la densidad del núcleo atómico, podría transformarse en un gas de neutrones, reducir su radio a un núcleo encogido y, en el proceso, perder alrededor del 10% de su masa. La energía equivalente a la pérdida de masa proporcionaría entonces la fuerza explosiva necesaria para impulsar una supernova.
"Zwicky no sabía qué podría iniciar una implosión ni cómo podría comportarse el núcleo cuando implosionara. Por lo tanto, no pudo estimar cuánto tiempo podría tomar el proceso: ¿es una contracción lenta o una implosión de alta velocidad? No se trabajaron los detalles de este proceso. hasta la década de 1960 y más tarde.
«En esta época (1932-33), los rayos cósmicos estaban recibiendo mucha atención y Zwicky, con su amor por los extremos, logró convencerse de que la mayoría de los rayos cósmicos (correctamente) provenían de fuera de nuestro sistema solar y (incorrectamente) que la mayoría procedían de lugares muy alejados de nuestra galaxia, la Vía Láctea, de hecho, de los confines más distantes del universo, y luego se convenció (más o menos correctamente) de que la energía total transportada por todos los rayos cósmicos del universo era aproximadamente la misma que la energía total liberada por supernovas en todo el universo. La conclusión era obvia para Zwicky. Los rayos cósmicos deben producirse en explosiones de supernovas».
El artículo de Baade y Zwicky de 1934 afirmaba inequívocamente la existencia de las supernovas como una clase distinta de objetos astronómicos diferentes de las novas ordinarias. Estimó la energía total liberada (10% de la masa solar) y propuso que el núcleo estaría formado por neutrones, una especulación que no fue aceptada como teóricamente viable hasta 1939 ni verificada observacionalmente hasta 1967 con el descubrimiento de los púlsares: neutrones magnetizados y giratorios. estrellas dentro de la explosión de gas de antiguas supernovas.
La información, extraída del reciente libro de Thorne, indica que Zwicky no sabía nada sobre el posible papel de las «pequeñas partículas neutras» en la implosión de una estrella de neutrones, sino que atribuyó toda la pérdida de masa y energía a los rayos cósmicos. Entonces, si no es de Zwicky, ¿cuál es entonces el origen humano de la afirmación del Libro de Urantia de que los neutrinos que escapan de su interior provocan el colapso de la estrella en implosión? (Las estimaciones actuales atribuyen aproximadamente el 99% de la energía de la explosión de una supernova a los neutrinos).
En su libro, Thorne afirma además: «Los astrónomos de la década de 1930 respondieron con entusiasmo al concepto de supernova de Baade-Zwicky, pero trataron las ideas de Zwicky sobre la estrella de neutrones y los rayos cósmicos con desdén… De hecho, me queda claro a partir de un estudio detallado de los escritos de Zwicky de la época que no entendía las leyes de la física lo suficientemente bien como para poder fundamentar sus ideas». Esta opinión también la sostuvo Robert Oppenheimer, quien publicó una serie de artículos con sus colaboradores Volkoff, Snyder y Tolman, sobre las ideas del físico ruso Lev Landau sobre la energía estelar que se origina a partir de un núcleo de neutrones en el corazón de una estrella. Oppenheimer ignoró las propuestas especulativas de Zwicky, aunque debía estar familiarizado con ellas ya que trabajaba aproximadamente la mitad de cada año en Caltec.
Los artículos de Oppenheimer eran principalmente de naturaleza teórica y se basaban en los principios de la física relativista. En un artículo de 1939 de Oppenheimer y Snyder, dado que no tenían ni el conocimiento detallado ni la maquinaria computacional para formular un modelo realista de una estrella en colapso, tomaron como punto de partida una estrella que era precisamente esférica, que no giraba ni irradiaba. , de densidad uniforme y sin presión interna. Sus conclusiones incluyeron que, para un observador desde un marco de referencia externo estático, la implosión de una estrella masiva se congela en la circunferencia crítica de la estrella (es decir, donde la gravedad se vuelve tan fuerte que ni siquiera la luz puede escapar) pero, como se considera desde la referencia En el marco de la superficie de la estrella, es posible que continúe implosionando (en última instancia, hasta una singularidad de Schwarzschild; el término «agujero negro» aún no se había inventado).
Estos artículos de Oppenheimer, que concluían que las estrellas de neutrones o los agujeros negros podían ser el resultado de una implosión estelar masiva, eran lo más lejos que podían llegar los físicos en aquel momento. Para disuadir aún más la especulación sobre el destino de las estrellas masivas en implosión, el físico más destacado de la época, Albert Einstein, y el decano de los astrónomos, Sir Arthur Eddington, se opusieron vigorosamente a los conceptos implicados en el colapso estelar más allá de la etapa de enana blanca. Por lo tanto, el tema parece haber quedado en suspenso coincidiendo con el estallido de la guerra en 1939.
Durante la década de 1940, prácticamente todos los físicos capaces estaban ocupados con tareas relacionadas con el esfuerzo bélico. Aparentemente esto no fue así para el astrónomo y físico nacido en Rusia, George Gamow, un profesor de Leningrado que había asumido un puesto en la Universidad George Washington en 1934. Gamow concibió el comienzo del universo en expansión del Hubble como una bola de fuego termonuclear en la que se encontraba el original. La materia de la creación era un gas denso de protones, neutrones, electrones y radiación gamma que se transmutaba mediante una cadena de reacciones nucleares en la variedad de elementos que componen el mundo de hoy. Refiriéndose a este trabajo, Overbye[4] escribe: «En los años cuarenta, Gamow y un grupo de colaboradores escribieron una serie de artículos que detallaban los detalles de la termonucleogénesis. Desafortunadamente su plan no funcionó. Algunos núcleos atómicos eran tan inestables que se desmoronaban antes de poder fusionarse nuevamente en algo más pesado, rompiendo así la cadena de formación de elementos. El equipo de Gamow se disolvió a finales de los años 40 y su trabajo fue ignorado y despreciado».
Entre estos trabajos se encontraba un artículo de Gamow y Schoenfeld que proponía que la pérdida de energía de las estrellas envejecidas estaría mediada por una salida de neutrinos. Sin embargo, también señalaron que «los neutrinos todavía se consideran partículas altamente hipotéticas debido al fracaso de todos los esfuerzos para detectarlos. Su propuesta parece haber sido pasada por alto o ignorada hasta los años 1960».
La sugerencia de Pauli sobre la existencia necesaria de la pequeña partícula desconocida y desprovista de potencial eléctrico que ahora llamamos neutrino se hizo justo antes del descubrimiento del neutrón por Chadwick en 1932. El nombre, neutrino, fue sugerido por Enrico Fermi. En la desintegración beta, cuando un neutrón se descompone en un protón y un electrón, la pérdida de masa es 0,00029 en la escala de peso atómico, aproximadamente la masa de medio electrón. En algunos eventos de desintegración, el electrón obtiene la mayor parte de la masa-energía faltante en forma de energía cinética. Dado que la partícula faltante también debe tener energía cinética, quedó claro que debe carecer de masa o estar muy cerca de ella. Muchos pensaron que debía carecer de masa como el fotón y viajar con la velocidad de la luz. Aunque nadie quería abandonar la ley de conservación de la energía, había muchas dudas sobre salvarla mediante una partícula sin carga y probablemente sin masa, una partícula que nunca podría ser detectada y cuya única razón de existencia era simplemente salvar una ley. [Nota: En 1957, se demostró que la ley de conservación de la paridad, de 30 años de antigüedad, se violaba durante la emisión de neutrinos en la desintegración radiactiva beta.]
Con el paso del tiempo, creció la necesidad del neutrino, no sólo para salvar la ley de conservación de la energía, sino también la conservación del momento, el momento angular (espín) y el número de leptones. A medida que crecía el conocimiento de cómo debería ser y a medida que se acumulaba conocimiento gracias a los intensos esfuerzos para producir la bomba atómica, comenzaron a surgir posibles medios para detectar esta partícula. En 1953, un equipo dirigido por CL Cowan y F. Reines comenzaron experimentos.[1] Ya existían reactores de fisión en los que la descomposición del uranio producía neutrones libres que, fuera del núcleo atómico, eran inestables y se descomponían mediante desintegración beta. para producir un protón, un electrón y, si existiera, la partícula faltante. Se estimó que el reactor de fisión elegido en Savannah River, Carolina del Norte, proporcionaría 1.000.000.000.000.000.000 por segundo. Estos deberían ser antineutrinos.
El equipo de Cowan y Reines ideó un plan para alimentar los antineutrinos del reactor a un objetivo formado por agua. Cada molécula de agua consta de dos átomos de hidrógeno y uno de oxígeno, y los núcleos de los átomos de hidrógeno son protones. Se añadió una sustancia centelleadora al agua contenida en una serie de tanques rodeados por detectores de centelleo. Si un protón absorbía un antineutrino, se esperaba que se formaran un neutrón y un positrón (antielectrón). En tal entorno, el positrón debería chocar con un electrón en aproximadamente una millonésima de segundo, y los dos deberían aniquilarse con la producción de dos fotones de rayos gamma disparados en direcciones exactamente opuestas. Un perfeccionamiento adicional fue la detección del neutrón recién formado que, en presencia de iones de cadmio, sería llevado inmediatamente al núcleo de cadmio con emisión de fotones con una energía combinada de 9 Mev. La detección de esta secuencia de acontecimientos presagiaría la existencia del antineutrino. En 1956, este sistema detectaba 70 eventos de este tipo por día con el reactor de fisión funcionando por encima del ruido de fondo con el reactor apagado. Ahora quedaba demostrar que esta partícula no era su propia antipartícula, como ocurre con el fotón. Esto lo hizo R.R. Davis en 1956[1], utilizando un sistema diseñado específicamente para detectar las propiedades esperadas de los neutrinos, pero probando esas propiedades con antineutrinos derivados de un reactor de fisión. Los resultados negativos así obtenidos proporcionaron evidencia de que había dos partículas diferentes. La confirmación de la existencia del neutrino (a diferencia del antineutrino) se obtuvo en 1965 cuando se detectaron neutrinos procedentes del Sol en enormes tanques de percloroetileno colocados muy bajo tierra.
El tema del destino de las estrellas en implosión se reabrió con vigor cuando Robert Oppenheimer y John Wheeler, dos de los grandes nombres de la física, asistieron a una conferencia en Bruselas en 1958. Oppenheimer creía que sus artículos de 1939 decían todo lo que había que decir. dicho sobre tales implosiones. Wheeler no estaba de acuerdo y quería saber qué sucedía más allá de las leyes bien establecidas de la física.
Cuando Oppenheimer y Snyder hicieron su trabajo en 1939, era imposible calcular los detalles de la implosión. Mientras tanto, el diseño de armas nucleares ha proporcionado las herramientas necesarias porque, para diseñar una bomba, hay que tener en cuenta las reacciones nucleares, los efectos de la presión, las ondas de choque, el calor, la radiación y la eyección de masa. Wheeler se dio cuenta de que su equipo sólo tenía que reescribir sus programas informáticos para simular una implosión en lugar de una explosión. Sin embargo, su equipo de bombas de hidrógeno se había disuelto y le correspondió a Stirling Colgate en Livermore, en colaboración con Richard White y Michael May, realizar estas simulaciones. Wheeler conoció los resultados y fue en gran parte responsable de generar el entusiasmo para seguir esta línea de investigación. El término «agujero negro» fue acuñado por Wheeler.
Se dice que la base teórica de las explosiones de supernovas fue establecida por E.M. Burbidge, G.R. Burbidge, W.A. Fowler y Fred Hoyle en un artículo de 1957[2]. Sin embargo, incluso en el libro de texto de Hoyle y Narlikar, The Physics-Astronomy Frontier (1980), no se considera el papel de los neutrinos en la conducción explosiva de energía fuera del núcleo de una supernova. En su artículo de 1957, Hoyle y sus colaboradores propusieron que cuando la temperatura de una estrella masiva envejecida se eleva a unos 7 mil millones de grados K, el hierro se convierte rápidamente en helio mediante un proceso nuclear que absorbe energía. Al satisfacer la repentina demanda de esta energía, el núcleo se enfría rápidamente y se contrae catastróficamente, implosiona en segundos y la envoltura exterior choca contra él. A medida que los elementos más ligeros se calientan por la implosión, se queman tan rápidamente que la envoltura sale disparada al espacio. Así, dos años después de la primera publicación de El Libro de Urantia, las autoridades más eminentes en el campo de la evolución estelar no hacen ninguna referencia a las «vastas cantidades de partículas diminutas desprovistas de potencial eléctrico» que, según el libro, escapan del interior de la estrella para traerlas. sobre su colapso. En lugar de ello, invocan la conversión de hierro en helio, un proceso que consume energía y que ahora se considera que no tiene importancia.
Siguiendo el olvidado artículo de Gamow y Schoenfeld, la siguiente sugerencia de que los neutrinos pueden tener un papel en las supernovas provino del Ph.D. estudiante Hong-Yee Chiu, que trabaja con Philip Morrison. Chiu propuso que hacia el final de la vida de una estrella masiva, el núcleo alcanzaría temperaturas de unos 3 mil millones de grados en las que se formarían pares electrón-positrón y una pequeña fracción de estos pares daría lugar a pares neutrino-antineutrino. Chiu especuló que la estrella emitiría rayos X durante unos 1000 años y que la temperatura finalmente alcanzaría unos 6 mil millones de grados cuando se formara un núcleo de hierro en la región central de la estrella. El flujo de pares neutrino-antineutrino sería entonces suficientemente grande como para transportar la energía explosiva de la estrella en un solo día. El período de 1000 años predicho por Chiu para la emisión de rayos X fue reducido a aproximadamente un año por trabajadores posteriores. Las propuestas de Chiu parecen haber sido publicadas por primera vez en una tesis doctoral presentada en la Universidad de Cornell en 1959. Philip Morrison[3] e Isaac Asimov[1] hacen referencias dispersas a ella.
Dennis Overbye, en su libro Lonely Hearts of the Cosmos[4] registra que, en el caso de las supernovas, casi toda la energía de la caída libre hacia adentro sale en forma de neutrinos. El éxito de este escenario (tal como lo propone Chiu) depende de una característica de la interacción débil llamada corrientes neutras. Sin esto, los neutrinos no proporcionan suficiente «empuje» y los teóricos no tenían una buena explicación de cómo explotan las estrellas. En realidad, la existencia de la corriente neutra para la interacción débil no se demostró hasta mediados de los años 1970.
Un artículo de 1985 (Scientific American) de Bethe y Brown titulado «Cómo explota una supernova» muestra que la comprensión del importante papel de los neutrinos estaba muy avanzada en ese momento. Estos autores atribuyen esta comprensión a las simulaciones por computadora de W. David Arnett de la Universidad de Chicago y Thomas Weaver y Stanford Woosley de la Universidad de California en Santa Cruz.
En un informe reciente de Sky and Telescope (agosto de 1995) se afirma que, durante la última década, las simulaciones por computadora de supernovas se han estancado entre 100 y 150 km del centro y no han podido explotar. Estos modelos eran unidimensionales. Al disponer de más potencia informática, se han llevado a cabo simulaciones bidimensionales y se han producido modelos de explosiones de supernovas. El reportado fue para una supernova de 15 masas solares que termina como una estrella de neutrones. Sin embargo, los autores especulan que al menos entre 5 y 15 implosiones de masa solar podrían terminar en agujeros negros. Todavía queda un largo camino por recorrer para comprender los detalles de las implosiones estelares.
Refiriéndose a nuestras tres alternativas para explicar cómo la referencia al papel de las diminutas partículas descargadas en las explosiones de supernovas llegó a aparecer en los Documentos de Urantia, aparentemente en 1934, nuestra investigación mostró que es poco probable que Zwicky haya sido la fuente, ya que él creía firmemente que X -Los rayos, no los neutrinos, representaron la pérdida de masa del 10% durante la muerte de la estrella.
Recordando que no se demostró la existencia de las estrellas de neutrones hasta 1967, que algunos de los nombres más importantes de la física y la astronomía se oponían totalmente al concepto de estrellas en colapso (Einstein, Eddington) y que, hasta bien entrada la década de 1960, la mayoría de los astrónomos asumían que que las estrellas masivas se deshacen de su masa poco a poco antes de retirarse respetablemente como enanas blancas, parece que habría sido una idea absurda intentar respaldar la realidad de una revelación mediante especulaciones sobre los acontecimientos que ocurrieron en la implosión estelar masiva en cualquier momento anterior hasta los años 1960. Si se supone que, basándose en lo que habría sido el consejo experto de un astrofísico experto pero imprudente, el Dr. Sadler escribió el material de la página 464 de los Documentos de Urantia después de los conceptos sobre neutrinos que aparecen en Gamow et al. publicaciones, entonces se hace necesario preguntar ¿por qué no se eliminó cuando ese trabajo perdió credibilidad más tarde en la década de 1940? Y particularmente desde que, en sus conclusiones, Gamow y Schoenfeld llamaron la atención sobre el hecho de que los neutrinos todavía eran considerados altamente partículas hipotéticas además de señalar que «la dinámica del colapso representa dificultades matemáticas muy serias».
Los documentos en poder de la Fundación Urantia muestran que el contrato para preparar las planchas de impresión de níquel del manuscrito de los Documentos de Urantia fue aceptado en septiembre de 1941. Miembros de El grupo del Dr. Sadler, conocido como Foro, en 1942. El asunto Sherman descrito en el libro de Gardner incluyó un intento de Sherman de hacerse con el control de las planchas de impresión en 1943. Estas planchas se mantuvieron en las bóvedas de la imprenta, R.R. Donnelley & Sons hasta la impresión real de El Libro de Urantia. Las regulaciones en tiempos de guerra impidieron una impresión temprana del libro. Posteriormente fue retrasado por los reveladores.
Ya se ha indicado que era poco probable que el artículo altamente especulativo de Gamow y Schoenfeld de 1942 hubiera sido la fuente de la declaración de la página 464 del libro sobre la implosión estelar. Las pruebas del contrato de las planchas de impresión lo hacen aún menos probable.
El lenguaje, el nivel de conocimiento y la terminología de la referencia de la página 464, junto con las referencias a la unión de protones y neutrones en el núcleo atómico, los dos tipos de mesotrón y la participación de pequeñas partículas sin carga en la desintegración radiactiva beta como descrito en la página 479, es el de principios de los años 1930, y no el de los años 40 y 50. Es lo que se esperaría de autores obligados por un mandato a no revelar conocimientos no ganados excepto en circunstancias especiales. Aplicando el principio de la navaja de Occam de dar preferencia a la explicación más simple consistente con los hechos, la explicación más probable para el material antes mencionado de la página 464 debe ser que es original de los Documentos de Urantia tal como se recibieron en 1934, por lo que entra en la categoría nominada en el mandato revelador como información suministrada para llenar los vacíos que faltan en nuestro conocimiento.
«Existe una curiosa historia paralela entre la historia de los agujeros negros y la deriva continental. La evidencia de ambas ya no era ignorable en 1916, pero ambas ideas fueron detenidas en seco durante medio siglo por una resistencia rayana en lo irracional… pero [la resistencia a] ambas comenzaron a desmoronarse alrededor de 1960». Werner Israel, citado en KS Thorne (1994) Black Holes and Time Warps (Picador, Londres).
El Libro de Urantia afirma categóricamente que toda la tierra de la Tierra era originalmente un solo continente que posteriormente se dividió, comenzando hace 750 millones de años (LU 57:8.23), seguido de un largo período de deriva continental durante el cual se formaron y rompieron repetidamente puentes terrestres.
La idea de la deriva continental fue discutida en el siglo XIX y Wegener la propuso por primera vez como una teoría integral en 1912. No fue bien aceptada y fue clasificada como pseudociencia. Por ejemplo, Rollin T. Chamberlin escribió en 1928, sólo seis años antes de recibir los Documentos de Urantia: «La teoría de Wegener en general es del tipo sin pies… Juega un juego en el que hay pocas reglas restrictivas…»
Chamberlin pasó a enumerar 18 puntos que consideraba destructivos de la hipótesis de la deriva y, de hecho, comenzó su libro con: «¿Podemos llamar a la geología una ciencia cuando existe tal diferencia de opinión en cuestiones fundamentales que hace posible tal ¿Teorías como esta para volverse locas?» La teoría permaneció desacreditada en opinión de la mayoría de los geólogos hasta los años 1960. La historia del conflicto anterior y la posterior aceptación de la deriva continental ha sido registrada recientemente por el historiador científico HE Le Grand (ver ref.).
El cambio de actitud de los geólogos, particularmente en América, fue iniciado por los cuidadosos estudios batimétricos, paleomagnéticos y sismológicos en la región de largas cadenas montañosas en los fondos oceánicos, como la cordillera del Atlántico medio que se extiende desde Islandia hasta la Antártida. Durante la década de 1960, los estudios geofísicos del fondo del océano revelaron que la roca del manto terrestre se estaba derritiendo y luego empujada hacia arriba, lo que provocaba la expansión del fondo marino. Se esperaría que este afloramiento separara los continentes y, por lo tanto, proporcionara la evidencia faltante de un mecanismo físico que podría provocar la deriva continental. Poco a poco el término deriva continental fue sustituido por una nueva terminología y hoy se conoce universalmente como tectónica de placas.
Los Documentos de Urantia que mencionan la deriva continental fueron presentados en 1934 y publicados en forma de libro en 1955. Los escritores de los Documentos no podían haber ignorado la naturaleza muy tenue de la teoría y habrían sabido que la mayoría la tenía en descrédito. Geólogos americanos. Por lo tanto, a menos que estos escritores tuvieran acceso a conocimientos preexistentes, parecería que habrían estado haciendo una tontería al ir en contra de una opinión científica fuertemente arraigada.
El Libro de Urantia difiere de muchas estimaciones publicadas sobre el tiempo geológico, por ejemplo para los períodos Carbonífero y Devónico, donde la discrepancia puede ser de unos 100 millones de años. En algunas áreas hay buen acuerdo; por ejemplo el libro (683) habla de la desaparición de los puentes terrestres entre América y Europa y África en la era comprendida entre hace 160 y 170 millones de años, y un artículo en Scientific American, junio de 1979, sitúa esta ruptura en 165 millones de años. atrás. Sin embargo, puentes terrestres conectaron estos continentes nuevamente en épocas posteriores a través de Groenlandia, Islandia y el Estrecho de Bering y también conectaron América del Sur con Australia a través de la Antártida y directamente con África (The Urantia Book, LU 61:1.12, LU 61:2.3, LU 61:4.3; Scientific American, enero 1983, pág.60).
Un aspecto más notable del relato de El Libro de Urantia es la afirmación de que la desintegración del supercontinente comenzó hace 750 millones de años. Wegener lo sitúa hace 200 millones de años. La edición de 1984 de la Encyclopaedia Britannica «Ciencia y Tecnología» presentó lo que entonces se suponía que era una serie actualizada de mapas que describían el progreso de la deriva continental desde hace 50 a 200 millones de años, lo que difiere de una representación similar en la Número de abril de 1985 de Scientific American por unos 100 millones de años en aspectos de la progresión. Sin embargo, ambas versiones sitúan el comienzo de la deriva continental hace entre 200 y 250 millones de años.
Alrededor de 1980, algunos geólogos estaban reconsiderando el comienzo de la deriva continental, y en un libro titulado Génesis, publicado en 1982, J. Gribbin informó de la opinión de que pudo haber existido un continente preexistente, Pangea 1, hace aproximadamente 600 millones de años. años que se había dividido en cuatro nuevos continentes hace unos 450 millones de años, al final de la era Ordovícica. Luego, hace unos 200 millones de años, se pensaba que los continentes habían convergido para formar Pangea 2, que rápidamente se separó, primero en Laurasia y Gondwanalandia; Luego se produjo una nueva desintegración al final del Cretácico para darle una apariencia muy parecida al mundo actual. Una opinión diferente se expresó en un artículo de Scientific American (1984) 250 (2), 41 que afirmaba que se produjo una ruptura a finales de la época riberiana, hace entre 700 y 900 millones de años; pero un artículo de 1987 (Scientific American 256, 84) es más conservador y sitúa la ruptura de Pangea 1 en algún lugar cercano al comienzo del Precámbrico, hace del orden de 600 millones de años.
I.W.D. Dalziel revisa el desarrollo posterior de la teoría de la deriva continental en Scientific American 272 (1) 28 (1995). La fecha propuesta para el comienzo de la desintegración del primer supercontinente se estima ahora en hace 750 millones de años, la misma que se da en El Libro de Urantia. ¿Coincidencia, suposición afortunada o algo más?
El relato del Libro de Urantia sobre la historia geológica de nuestro planeta nos dice que, tras la desintegración del supercontinente hace unos 750 millones de años, ha habido ciclos repetidos de elevación y inmersión de la tierra. Hace aproximadamente 400 y 200 millones de años, la periodicidad parece tener un promedio de aproximadamente 25 millones de años, con períodos de ciclos mucho más frecuentes durante los períodos Carbonífero y Cretácico.
Los cambios en el nivel del mar se han atribuido a menudo al avance y retroceso de los casquetes polares, pero esto no parece explicar los movimientos descritos en El Libro de Urantia. Más recientemente se ha propuesto un mecanismo que implica la acumulación de calor debajo de las grandes masas de tierra y que se cree que causa la elevación, la formación de cúpulas y la ruptura de los continentes, y su posterior unión. Aunque el concepto se ha propuesto principalmente para explicar el movimiento transversal, también proporciona un mecanismo físico que podría explicar el movimiento vertical descrito en El Libro de Urantia.
El mecanismo propuesto indica una acumulación relativamente lenta de calor, pero la posterior liberación puede ocurrir de varias maneras, por lo que se esperaría una desviación considerable de la periodicidad de la onda sinusoidal.
Esta teoría será de interés para los lectores del Libro de Urantia que hayan quedado desconcertados por su explicación de la elevación y depresión alternas de los continentes a tan gran escala.