© 1996 Dr. Ken Glasziou
© 1996 The BrotherHood of Man Library
Les articles présentés dans cette Section semblent appartenir à l’une des catégories définies dans LU 101:4.6-10 du Livre d’Urantia par lesquelles les Révélateurs ont été autorisés à éliminer les erreurs, à restaurer les connaissances perdues, à combler les lacunes manquantes ou à fournir des données cosmiques pour éclairer les enseignements spirituels.
« Dans les soleils qui sont en circuit dans les canaux d’énergie spatiale, l’énergie solaire est libérée par diverses chaînes complexes de réactions nucléaires, dont la plus courante est la réaction hydrogène-carbone-hélium. Dans cette métamorphose, le carbone agit comme catalyseur énergétique puisqu’il n’est en aucune façon réellement modifié par ce processus de conversion de l’hydrogène en hélium. Dans certaines conditions de haute température, l’hydrogène pénètre dans les noyaux de carbone. Comme le carbone ne peut contenir plus de quatre de ces protons, lorsque cet état de saturation est atteint, il commence à émettre des protons aussi vite que de nouveaux arrivent. Dans cette réaction, les particules d’hydrogène entrantes se présentent sous la forme d’un atome d’hélium. » (LU 41:8.1)
« Tous ces phénomènes indiquent une énorme dépense d’énergie, et les sources d’énergie solaire, nommées par ordre d’importance, sont : « 1. Annihilation des atomes et, finalement, des électrons… » (LU 41:7.4)
En 1934, lorsque fut reçu l’article fournissant ces informations sur les sources d’énergie solaire, le détail de la conversion de l’hydrogène en hélium, telle que postulée par J. Perrin en 1920, était inconnu. Deux processus principaux pour cette conversion sont la chaîne proton-proton proposée par H.A. Bethe et C.L. Critchfield en 1938, et le cycle carbone-azote proposé indépendamment par Bethe et par von Weizsacker en 1939. Naturellement, Gardner affirme que le Dr Sadler a ajouté les informations sur le cycle du carbone à la suite des publications de Bethe.
Le cycle carbone-azote qui convertit l’hydrogène en hélium avec libération d’énergie est une réaction catalytique dans laquelle le carbone entre et sort de la réaction apparemment indemne. En réalité, il s’agit d’une réaction très complexe dans laquelle plusieurs isotopes de carbone, d’azote et d’oxygène sont générés avant que le carbone ordinaire ne soit régénéré et que l’hélium n’émerge. La simplicité de la formulation de la citation du Fascicule d’Urantia tirée de LU 41:8.1 n’éveille aucune confiance dans le postulat selon lequel l’auteur connaissait bien le travail de Bethe.
La citation de LU 41:7.4 est également mentionnée par Gardner (p. 189) mais dans ce cas, elle est mal citée dans une tentative de ridiculiser le contenu scientifique des Urantia Papers. Gardner place cela dans le contexte du texte original, donc (selon Gardner) ne peut pas être modifié ou supprimé. Il déclare:
« On sait désormais que l’énergie rayonnante du soleil est produite par une réaction thermonucléaire dans laquelle l’hydrogène est transformé en une variété d’hélium. Aucun électron ni proton n’est détruit par ce processus. Lorsque les Cahiers d’Urantia furent rédigés, il était largement admis que l’énergie rayonnante du soleil provenait de l’annihilation des atomes et des protons. Comme le dit Sir James Jeans dans L’Univers autour de nous, l’énergie du soleil « provient des électrons et des protons ». Le soleil détruit sa substance pour que nous puissions vivre. Cette notion est le point de vue adopté par l’UB. La principale source d’énergie, affirme l’LU (sur LU 41:7.4) est « l’annihilation des atomes et, éventuellement, des protons ». »
Le libellé actuel des Cahiers d’Urantia est « l’annihilation des atomes et, finalement, des électrons ». Gardner a remplacé les « électrons » par « protons », apparemment en conformité avec sa citation de Jeans. Le commentaire selon lequel aucun électron ou proton n’est détruit au cours du processus semble être le sien et est incorrect. Le processus global est que quatre atomes d’hydrogène, constitués de quatre protons et quatre électrons, deviennent un seul atome d’hélium ayant deux protons, deux neutrons et deux électrons. Que le processus soit la chaîne proton-proton (que l’on pense dominante dans les étoiles comme notre Soleil) ou via le cycle carbone-azote (dominant dans les étoiles plus grandes et plus chaudes), dans chaque processus, deux positrons (antiélectrons) sont libérés et s’annihiler en interagissant avec deux électrons. Par conséquent, la déclaration dans l’Étude d’Urantia selon laquelle l’annihilation des atomes et, éventuellement, des électrons est de première importance pour la production d’énergie solaire est tout à fait correcte et est peut-être aussi prophétique concernant la chaîne proton-proton pour la production d’hélium proposée par Bethe et Critchfield. en 1938.
1. « La cohésion des protons chargés et des neutrons non chargés du noyau de l’atome est assurée par la fonction alternative du mésotron, particule de matière 180 fois plus lourde que l’électron. Sans ce dispositif, la charge électrique portée par les protons disloquerait le noyau atomique. LU 42:8.3
2. « Tels que les atomes sont constitués, nulle force gravitationnelle ou électrique ne pourrait assurer la cohésion de leur noyau. L’intégrité du noyau est maintenue par la fonction cohésive alternative du mésotron, qui est capable de réunir les particules chargées et non chargées, grâce au pouvoir massique supérieur de sa force et par une fonction supplémentaire qui fait constamment changer de place les protons et les neutrons. Le mésotron fait constamment aller et venir la charge électrique des particules nucléaires entre protons et neutrons. Au cours d’une fraction infinitésimale de seconde, une particule nucléaire donnée est un proton chargé, et, au cours de la fraction suivante, elle est un neutron sans charge. Et ces alternances de statut énergétique sont si incroyablement rapides que la charge électrique est privée de toute occasion de fonctionner comme influence disloquante. C’est ainsi que le mésotron fonctionne comme une particule « porteuse d’énergie » qui contribue puissamment à la stabilité nucléaire de l’atome. (LU 42:8.4)
Pour moi, les affirmations examinées dans cet article, tirées d’un Fascicule d’Urantia qui aurait été écrit en 1934, sont vraiment remarquables. Je les ai lues pour la première fois au début des années 1970 et j’ai reconnu les paragraphes 1 et 2 comme les postulats de base d’une théorie pour laquelle le physicien japonais Hideki Yukawa a reçu le prix Nobel en 1948. Des années 1950 aux années 1970, la physique des particules était dans un état de confusion à cause de la multitude de particules subatomiques qui jaillissaient des accélérateurs de particules. Au fur et à mesure que de nouveaux concepts et de nouvelles découvertes étaient annoncés, je les notais dans les marges du UB 42:8.4, qui est finalement devenu quelque peu confus et brouillon. Parfois, j’avais l’impression qu’il n’y avait pas grand-chose d’incorrect sur cette page, d’autres fois je m’émerveillais de son exactitude.
Ces dernières années, une quantité considérable d’informations a été mise à jour sur l’histoire du développement du « modèle standard » actuel de la structure atomique. Bien que reconnu comme incomplet, le modèle standard a énormément amélioré notre compréhension de la nature fondamentale de la matière. La force électromagnétique et la force faible de la désintégration radioactive ont été unifiées avec succès pour donner naissance à la théorie « électrofaible ». Jusqu’à présent, celle-ci n’a pas été unifiée avec la théorie de la force « forte » qui maintient la cohésion du noyau atomique. La force de gravité reste intraitable pour être unifiée avec les autres forces.
Dans la théorie quantique de l’électromagnétisme, deux particules chargées interagissent lorsque l’une émet un photon et l’autre l’absorbe. En 1932, Yukawa avait décidé de tenter une approche similaire pour décrire le champ de force nucléaire. Il écrivit : « …il semblait probable que la force nucléaire soit une troisième force fondamentale, sans rapport avec la gravitation ou l’électromagnétisme… qui pourrait également trouver son expression sous la forme d’un champ… Si l’on visualise alors le champ de force comme un jeu de « catch » entre protons et neutrons, le nœud du problème serait de trouver la nature de la « balle » ou de la particule. » Ce travail fut publié pour la première fois en japonais en 1935, mais n’était pas très connu aux États-Unis
Dans un premier temps, Yukawa suivit les travaux de Heisenberg et utilisa un champ d’électrons pour fournir la force nucléaire entre protons et neutrons. Cela a conduit à des problèmes insolubles. En 1934, il décide « de ne plus chercher parmi les particules connues la particule du champ de force nucléaire ». Il écrit : « Le moment crucial est survenu une nuit d’octobre. La force nucléaire est efficace à des distances extrêmement petites, de l’ordre de 0,02 billionième de centimètre. Ma nouvelle découverte a été la prise de conscience que cette distance et la masse de la nouvelle particule que je recherchais sont inversement liées l’une à l’autre. » Il s’est rendu compte qu’il pouvait corriger la portée de la force nucléaire s’il permettait à la balle dans le jeu de « capture » d’être lourde – environ 200 fois plus lourde que l’électron.
Pendant une courte période, la « boule » de Yukawa fut connue sous le nom de « mésotron », mais fut bientôt raccourcie en méson. Le mot finit par s’appliquer à une gamme de particules porteuses d’énergie ayant des similitudes avec le photon.
3. « La présence et la fonction des mésotrons expliquent aussi une autre énigme concernant l’atome. Quand les atomes agissent radioactivement, ils émettent beaucoup plus d’énergie qu’on ne pourrait s’y attendre. Cet excédent de radiation provient du démembrement du mésotron « porteur d’énergie », qui devient alors un simple électron. La désintégration du mésotron s’accompagne aussi de l’émission de certaines petites particules dépourvues de charge. » (LU 42:8.5)
Cette affirmation étend la théorie de Fermi de 1934 sur la désintégration radioactive du neutron. Yukawa avait considéré qu’un « mésotron » pourrait également servir de « balle » dans le jeu de « capture » lors de la désintégration radioactive. Après avoir réexécuté ses calculs, il publia en 1938 un article prédisant les propriétés d’un tel mésotron qu’il appelait désormais photon « faible ». Finalement, elle est devenue connue sous le nom de particule « W ».
Étant donné qu’il est destiné à donner naissance à un électron chargé négativement, ce « mésotron » de désintégration radioactive, tel que décrit dans le Fascicule Urantia, est évidemment différencié du « mésotron » qui fait la navette entre les protons et les neutrons pour transmettre la charge positive. Le Fascicule le relie également à la production de petites particules non chargées, qui recevraient le nom de « neutrinos ».
Les Para 1-3 se rapprochent de la science contemporaine, mais incroyablement spéculative, du milieu à la fin des années 1930. Ils décrivent trois particules hypothétiques : le pion « mésotron » (découvert en 1947), la particule W « mésotron » (découverte en 1983) et les petites particules non chargées, les « neutrinos » (découvertes en 1956).
Le commentaire du paragraphe 2 qui déclare : « les alternances de l’état énergétique sont incroyablement rapides… » est intéressant. En raison de son emplacement dans le texte, il ne qualifie que le « mésotron » qui fait la navette entre les protons et les neutrons et non le « mésotron » de la désintégration radioactive. Selon le lauréat du prix Nobel, Steven Weinberg (1992), ces alternances se produisent dans l’ordre d’un million, million, million, millionième de seconde. En revanche, le processus de désintégration radioactive médié par le « mésotron » décrit au paragraphe 3 prend environ un centième de seconde. Ensemble, ces trois déclarations dans le Fascicule d’Urantia indiquent que l’auteur avait une connaissance approfondie de la physique nucléaire théorique – un individu vraiment rare, et surtout avant la course à la construction de la bombe atomique.
4. « Le mésotron explique certaines propriétés cohésives du noyau atomique, mais n’explique ni la cohésion entre protons ni l’adhésion entre neutrons. La force puissante et paradoxale qui assure l’intégrité cohésive de l’atome est une forme d’énergie non encore découverte sur Urantia. » (LU 42:8.6)
Cette déclaration du Fascicule d’Urantia affirme clairement que le « mésotron » qui transmet la charge positive entre les protons et les neutrons n’explique pas certaines propriétés cohésives spéciales du noyau atomique. Elle nous dit ensuite qu’il existe un aspect de cette force qui n’a pas encore été découvert sur Urantia.
Léon Lederman était un jeune chercheur en 1950 qui devint plus tard directeur du Laboratoire Fermi. Il a reçu le prix Nobel en 1988. Dans son livre The God Particle, il commente : « La particule chaude de 1950 était le pion ou méson pi (mésotron de Yukawa), comme on l’appelle aussi. Le pion avait été prédit en 1936 par un physicien théoricien japonais, Hideki Yukawa. On pensait que c’était la clé de la force forte, ce qui à l’époque était le grand mystère. Aujourd’hui, nous pensons à la force forte en termes de gluons. Mais à l’époque (c’est-à-dire dans les années 1950), les pions qui volaient entre les protons pour les maintenir étroitement ensemble dans le noyau étaient la clé, et nous devions les fabriquer et les étudier.
Cette force, inconnue en 1934 (et d’ailleurs en 1955 lorsque le Livre d’Urantia fut publié), est maintenant connue sous le nom de force de couleur. Dans leur livre The Particle Explosion, Close, Marten et Sutton déclarent : « Dans les années 1940 et 1950, les théoriciens pensaient que les pions étaient les transmetteurs de la force forte. Mais des expériences ultérieures ont montré que les pions et les autres hadrons sont des particules composites, construites à partir de quarks, et la théorie de la force forte a dû être complètement révisée. Nous pensons maintenant que c’est la couleur du proton et du neutron qui les attire l’un vers l’autre pour former des noyaux. Ce processus peut avoir des similitudes avec la façon dont la charge électrique à l’intérieur des atomes parvient à construire des molécules complexes. Tout comme les électrons sont échangés entre les atomes liés au sein d’une molécule, les quarks et les antiquarks (regroupés en amas appelés « pions ») sont échangés entre les protons et les neutrons d’un noyau.
Le mandat confié aux révélateurs permettait « de fournir des informations qui combleront les lacunes vitales manquantes dans les connaissances autrement acquises ». (LU 101:4.9) Si un physicien a déjà utilisé efficacement les informations contenues dans LU 42:8.7, nous ne le saurons probablement jamais. Mais il y a « davantage de choses au ciel et sur la terre »… Par exemple, « la physique, espère-t-on, atteindra un jour le niveau ultime de la nature dans lequel tout peut être décrit et à partir duquel se développe l’univers tout entier. Cette croyance pourrait s’appeler la quête de l’ultimon. (d’après E. David Peat, 1988, Superstrings and the Search for the Theory of Everything.) Il y a ici une curieuse coïncidence. La particule que les Cahiers d’Urantia appelaient mésotron fut abrégée en méson. Il appelle l’élément de base de la matière un ultimaton. Sera-t-il un jour identifié à l’ultimon ?
« Dans les grands soleils — petites nébuleuses sphériques — lorsque l’hydrogène est épuisé et que la contraction gravitationnelle s’ensuit, si un tel corps n’est pas assez opaque pour retenir la pression intérieure qui soutient les régions gazeuses extérieures, alors un effondrement subit se produit. Les changements électrogravitationnels donnent naissance à d’immenses quantités de minuscules particules dépourvues de potentiel électrique, et celles-ci s’échappent promptement de l’intérieur du soleil, ce qui amène en quelques jours l’effondrement d’un soleil gigantesque. » (LU 41:8.3)
En 1934, on n’avait pas démontré l’existence de minuscules particules dépourvues de potentiel électrique, qui pourraient s’échapper facilement de l’intérieur d’une étoile en train de s’effondrer. En fait, la réalité de telles particules ne fut confirmée qu’en 1956, un an après la publication du Livre d’Urantia. L’existence de particules qui pourraient avoir de telles propriétés avait été suggérée par Wolfgang Pauli en 1932, car des études sur la désintégration bêta radioactive des atomes avaient indiqué qu’un neutron pouvait se désintégrer en un proton et un électron, mais des mesures avaient montré que l’énergie de masse combinée de l’électron et du proton ne correspondait pas à celle du neutron. Pour expliquer l’énergie manquante, Pauli suggéra l’émission d’une petite particule neutre, puis, le même jour, alors qu’il déjeunait avec l’éminent astrophysicien Walter Baade, Pauli fit remarquer qu’il avait fait la pire chose qu’un physicien théoricien puisse faire, il avait proposé une particule qui ne pourrait jamais être découverte parce qu’elle n’avait aucune propriété. Peu de temps après, Enrico Fermi reprit l’idée de Pauli et tenta de publier un article sur le sujet dans la prestigieuse revue scientifique Nature. Les éditeurs rejetèrent l’article de Fermi au motif qu’il était trop spéculatif. C’était en 1933, l’année précédant la réception du livre d’Urantia correspondant.
Il est intéressant de noter que le Livre d’Urantia déclare que de minuscules particules dépourvues de potentiel électrique seraient libérées en grandes quantités lors de l’effondrement de l’étoile. Si, en 1934, un auteur autre qu’un physicien des particules bien informé avait prophétisé la formation d’une étoile à neutrons (une proposition extrêmement spéculative de Zwicky et Baade au début des années 1930), alors cet auteur aurait sûrement pensé à l’inversion de la désintégration radioactive bêta dans laquelle un proton, un électron et la petite particule neutre de Pauli seraient comprimés ensemble pour former un neutron.
La désintégration bêta radioactive peut s’écrire…
1. neutron ⟶ proton + électron + LNP où LNP signifie petite particule neutre. Par conséquent, l’inverse devrait être :
2. LNP + électron + proton ⟶ neutron
Pour que cela se produise, un électron et un proton doivent être comprimés pour former un neutron, mais il leur faudrait d’une manière ou d’une autre ajouter une petite particule neutre pour compenser la masse-énergie manquante. Ainsi, en termes de concepts scientifiques spéculatifs, en 1934, Le Livre d’Urantia semble avoir remis les choses à l’ordre du jour, il a prédit une libération massive de LNP, alors que l’inversion de la désintégration bêta radioactive semblerait exiger la disparition des LNP.
L’idée d’une étoile à neutrons était considérée comme hautement spéculative jusqu’en 1967. La plupart des astronomes pensaient que les étoiles de taille moyenne, comme notre Soleil, jusqu’aux étoiles très massives, terminaient leur vie en tant que naines blanches. Les propriétés théoriques des étoiles à neutrons étaient tout simplement trop absurdes ; par exemple, un dé à coudre pèserait environ 100 millions de tonnes. Une autre proposition privilégiée était que les grandes étoiles étaient censées évacuer leur surplus de masse un morceau à la fois jusqu’à ce qu’elles atteignent moins de 1,4 masse solaire (connue sous le nom de limite de Chandrasekhar) et qu’elles puissent alors se retirer en tant que naines blanches respectables. Ce processus n’impliquait pas la libération de vastes quantités de minuscules particules dépourvues de potentiel électrique qui accompagnent l’effondrement des étoiles comme décrit dans la citation citée du Livre d’Urantia.
L’éminent astrophysicien russe Igor Novikov a écrit : « Apparemment, aucune recherche sérieuse d’étoiles à neutrons ou de trous noirs n’a été tentée par les astronomes avant les années 1960. Il était tacitement supposé que ces objets étaient beaucoup trop excentriques et étaient très probablement le fruit de vœux pieux des théoriciens. De préférence, on évitait d’en parler. Parfois, ils étaient évoqués vaguement avec une remarque oui, ils pouvaient être formés, mais selon toute vraisemblance, cela ne s’était jamais produit. En tout cas, s’ils existaient, ils ne pourraient pas être détectés.
L’existence des étoiles à neutrons a été progressivement admise grâce aux découvertes qui ont accompagné le développement de l’astronomie radio et X. La nébuleuse du Crabe a joué un rôle central dans les idées qui ont émergé à son sujet dans les années 1950-1960. Observée à l’origine comme une explosion dans le ciel par des astronomes chinois en 1054, la nébuleuse du Crabe a suscité un intérêt accru en 1958 lorsque Walter Baade a rapporté des observations visuelles suggérant des ondulations en mouvement dans sa nébulosité. Lorsque des appareils électroniques sensibles ont remplacé la plaque photographique comme moyen de détection, la fréquence d’oscillation de ce que l’on pensait être une naine blanche au centre de la nébuleuse du Crabe s’est avérée être d’environ 30 fois par seconde.
Pour une étoile naine blanche d’un diamètre de l’ordre de 1 000 km, une vitesse de rotation ne serait-ce qu’une fois par seconde entraînerait sa désintégration en raison des forces centrifuges. Par conséquent, cette période de pulsation remarquablement courte impliquait que l’objet responsable des variations de lumière devait être beaucoup plus petit qu’une naine blanche, et le seul prétendant possible à de telles propriétés semblait être une étoile à neutrons. L’acceptation finale est venue avec des images du centre de la nébuleuse du Crabe renvoyées vers la Terre par l’observatoire à rayons X en orbite d’Einstein en 1967. Celles-ci ont confirmé et amplifié les preuves obtenues par des observations antérieures faites à la fois avec des télescopes optiques et des radiotélescopes.
L’inversion de la désintégration bêta, telle que décrite dans l’équation 2, implique une triple collision, un événement extrêmement improbable, à moins que deux des composants ne se combinent dans un état métastable – un fait qui n’est probablement pas évident pour un observateur non expert.
L’évolution probable de l’effondrement des étoiles massives n’a été élucidée que depuis l’avènement des ordinateurs rapides. Ces étoiles commencent leur vie composées principalement d’hydrogène gazeux qui brûle pour former de l’hélium. L’énergie nucléaire ainsi libérée retient l’envie gravitationnelle d’effondrement. Une fois l’hydrogène contenu dans le noyau central épuisé, le noyau commence à rétrécir et à chauffer, provoquant l’expansion des couches externes. Avec l’augmentation de la température dans le noyau, l’hélium fusionne pour donner du carbone et de l’oxygène, tandis que l’hydrogène autour du noyau continue de produire de l’hélium. À ce stade, l’étoile s’agrandit pour devenir une géante rouge.
Après l’épuisement de l’hélium au cœur, la contraction gravitationnelle se produit à nouveau et l’augmentation de la température permet au carbone de brûler pour produire du néon, du sodium et du magnésium, après quoi l’étoile commence à rétrécir pour devenir une géante bleue. La combustion du néon et de l’oxygène suit. Enfin, le silicium et le soufre, produits issus de la combustion de l’oxygène, s’enflamment pour produire du fer. Les noyaux de fer ne peuvent pas libérer d’énergie en fusionnant, donc avec l’épuisement de leur source de combustible, le four au centre de l’étoile s’éteint. Rien ne peut désormais ralentir l’assaut de l’effondrement gravitationnel, et lorsque le noyau de fer atteint une masse critique de 1,4 fois la masse de notre soleil et que le diamètre de l’étoile est environ la moitié de celui de la terre, le sort de l’étoile est scellé.
En quelques dixièmes de seconde, la boule de fer s’effondre jusqu’à atteindre une cinquantaine de kilomètres de diamètre, puis l’effondrement est stoppé lorsque sa densité se rapproche de celle du noyau atomique et que les protons et les neutrons ne peuvent plus être comprimés. L’arrêt de l’effondrement envoie une énorme onde de choc à travers la région externe du noyau.
La lumière que nous voyons de notre soleil provient uniquement de sa couche superficielle externe. Cependant, l’énergie qui alimente la lumière du soleil (et la vie sur Terre) provient du four thermonucléaire chaud et dense situé au cœur du Soleil. Bien que la lumière du soleil ne mette qu’environ huit minutes pour se déplacer du soleil à la terre, l’énergie du noyau solaire qui donne naissance à cette lumière solaire prend environ un million d’années pour se diffuser du noyau vers la surface. En d’autres termes, un soleil (ou une étoile) est relativement « opaque » (selon Le Livre d’Urantia, LU 41:8.3) à l’énergie se diffusant depuis son noyau thermonucléaire vers sa surface, il fournit donc la pression nécessaire pour empêcher l’effondrement gravitationnel. Mais ce n’est pas le cas des petites particules neutres, connues depuis le milieu des années 1930 sous le nom de neutrinos. Ces particules sont si petites et peu réactives que leur passage du noyau de notre soleil vers son extérieur ne prend que 3 secondes environ.
C’est parce que les neutrinos peuvent s’échapper si facilement qu’ils jouent un rôle crucial dans la mort subite de l’étoile et l’explosion qui s’ensuit. Les neutrinos se forment de diverses manières, la plupart sous forme de paires neutrino-antineutrino à partir de rayons gamma hautement énergétiques. D’autres surviennent lorsque les protons comprimés capturent un électron (ou expulsent un positron) pour devenir des neutrons, réaction qui s’accompagne de la libération d’un neutrino. Quelque chose de l’ordre de 1057 neutrinos électroniques est libéré de cette manière. Les réactions de courant neutre des particules Zo de force faible contribuent également aux neutrinos électroniques ainsi qu’aux neutrinos « lourds » du muon et du tau.
Ensemble, ces neutrinos constituent une « grande quantité de minuscules particules dépourvues de potentiel électrique » qui s’échappent facilement de l’intérieur de l’étoile. Les calculs indiquent qu’ils transportent quatre-vingt-dix-neuf pour cent de l’énergie libérée lors de l’explosion finale de la supernova. Le gigantesque éclair de lumière qui accompagne l’explosion ne représente qu’une partie du 1 pour cent restant ! Bien que la majeure partie des neutrinos et des anti-neutrinos soient libérés lors de l’explosion finale, ils sont également produits aux températures énormes atteintes par le noyau interne lors des dernières étapes de contraction.
L’occasion de confirmer la libération des neutrinos supposés accompagner la mort spectaculaire d’une étoile géante s’est présentée en 1987 lorsqu’une explosion de supernova, visible à l’œil nu, s’est produite dans le Grand Nuage de Magellan voisin de notre Voie Lactée. Les calculs ont indiqué que cette supernova, baptisée SN1987A, devrait donner lieu à une explosion de neutrinos d’une densité de 50 milliards par centimètre carré lorsqu’elle atteindrait finalement la Terre, même si elle s’étendait comme une « surface » sphérique provenant d’une distance de 170 000 années-lumière. Cette explosion de neutrinos a été observée dans les énormes détecteurs de neutrinos de Kamiokande au Japon et de Fairport, Ohio, aux États-Unis, pendant une période de seulement 12 secondes, confirmant les simulations informatiques qui indiquaient qu’ils devraient se diffuser relativement lentement à travers le noyau dense. À partir de l’énergie moyenne et du nombre de « coups » des neutrinos dans les détecteurs, il a été possible d’estimer que l’énergie libérée par SN1987 s’élevait à 2-3 x 1053 ergs. Cela équivaut à l’énergie de liaison gravitationnelle calculée qui serait libérée par l’effondrement du noyau d’une étoile d’environ 1,5 masse solaire par rapport au diamètre d’une étoile à neutrons. Ainsi, SN1987A a fourni une confirmation remarquable du tableau général de la formation des étoiles à neutrons développé au cours des cinquante dernières années. Surtout, cela a également confirmé que le Livre d’Urantia avait raison bien avant que le concept d’étoiles à neutrons produisant des neutrinos n’atteigne la respectabilité.
« Dans les grands soleils — petites nébuleuses sphériques — lorsque l’hydrogène est épuisé et que la contraction gravitationnelle s’ensuit, si un tel corps n’est pas assez opaque pour retenir la pression intérieure qui soutient les régions gazeuses extérieures, alors un effondrement subit se produit. Les changements électrogravitationnels donnent naissance à d’immenses quantités de minuscules particules dépourvues de potentiel électrique, et celles-ci s’échappent promptement de l’intérieur du soleil, ce qui amène en quelques jours l’effondrement d’un soleil gigantesque. » (UB 41:8.3)
Pour le milieu des années trente, c’était une déclaration assez impressionnante. Ces minuscules particules que nous appelons maintenant neutrinos étaient entièrement spéculatives au début des années 1930 et étaient nécessaires pour expliquer l’absence de masse-énergie de la désintégration radioactive bêta.
Au début des années 1930, l’idée que des explosions de supernovae pouvaient se produire et entraîner la formation d’étoiles à neutrons fut largement diffusée par Fritz Zwicky de l’Institut de Technologie de Californie (Caltec) qui travaillait dans le département du professeur Millikan. Pendant une période au milieu des années 30, Zwicky était également à l’Université de Chicago. On dit que le Dr Sadler connaissait Millikan. Ainsi, les possibilités alternatives pour l’origine de la citation ci-dessus du Livre d’Urantia pourraient être :
Les révélateurs ont suivi leur mandat et ont utilisé une source humaine d’information sur les supernovae, peut-être Zwicky.
Le Dr Sadler avait découvert les minuscules particules dépourvues de potentiel électrique auprès de Zwicky, Millikan ou d’une autre personne bien informée et les avait incorporées dans Le Livre d’Urantia.
Il s’agit d’informations fournies pour combler les lacunes manquantes dans les connaissances autrement acquises, comme le permet le mandat. (LU 101:4.9)
Zwicky avait la réputation d’être un scientifique brillant, mais il se livrait à de nombreuses spéculations folles, dont certaines se sont révélées exactes. Un article publié par Zwicky et Baade en 1934 proposait que les étoiles à neutrons se formeraient lors d’un effondrement stellaire et que 10 % de leur masse serait perdue au cours du processus. (Phys. Revues. Vol. 45)
Dans Black Holes and Time Warps: Einstein’s Outrageous Legacy (Picador, Londres, 1994), un livre qui couvre en détail le travail et la pensée de cette période, K.S. Thorne, professeur Feynman de physique théorique à Caltec, écrit : « Au début des années 1930 , Fritz Zwicky et Walter Baade ont uni leurs forces pour étudier les novae, des étoiles qui s’enflamment soudainement et brillent 10 000 fois plus fort qu’auparavant. Baade avait connaissance de preuves provisoires selon lesquelles, outre les novae ordinaires, il existait des novae superlumineuses. Celles-ci avaient à peu près la même luminosité. mais comme on pensait qu’elles se produisaient dans des nébuleuses bien au-delà de notre Voie lactée, elles devaient signaler des événements d’une ampleur extraordinaire. Baade a collecté des données sur six de ces novae survenues au cours du siècle en cours.
« Alors que Baade et Zwicky luttaient pour comprendre les supernovae, James Chadwick, en 1932, rapporta la découverte du neutron. C’était exactement ce dont Zwicky avait besoin pour calculer que si l’on pouvait faire imploser une étoile jusqu’à ce qu’elle atteigne la densité du noyau atomique, il pourrait se transformer en un gaz de neutrons, réduire son rayon à un noyau rétréci et, ce faisant, perdre environ 10 % de sa masse. L’équivalent énergétique de la perte de masse fournirait alors la force explosive nécessaire à l’alimentation d’une supernova. »
« Zwicky ne savait pas ce qui pourrait déclencher l’implosion ni comment le noyau pourrait se comporter lors de son implosion. Par conséquent, il ne pouvait pas estimer combien de temps le processus pourrait prendre : s’agit-il d’une contraction lente ou d’une implosion à grande vitesse ? Les détails de ce processus n’ont pas été étudiés. jusque dans les années 1960 et plus tard. »
« À cette époque (1932-33), les rayons cosmiques suscitaient beaucoup d’attention et Zwicky, avec son amour des extrêmes, réussit à se convaincre que la plupart des rayons cosmiques venaient (à juste titre) de l’extérieur de notre système solaire et (à tort) que la plupart venaient de très loin de notre galaxie, la Voie Lactée – en fait, des confins les plus éloignés de l’univers – et il se persuada ensuite (à peu près correctement) que l’énergie totale transportée par tous les rayons cosmiques de l’univers était à peu près la même que l’énergie totale libérée par les supernovae dans tout l’univers. La conclusion était évidente pour Zwicky. Les rayons cosmiques doivent être produits par des explosions de supernovae. »
L’article de Baade et Zwicky de 1934 affirmait sans équivoque l’existence des supernovae en tant que classe distincte d’objets astronomiques différents des novae ordinaires. Il estima l’énergie totale libérée (10 % de la masse solaire) et proposa que le noyau soit constitué de neutrons, une hypothèse qui ne fut acceptée comme théoriquement viable qu’en 1939, ni vérifiée par l’observation avant 1967 avec la découverte des pulsars, des étoiles à neutrons magnétisées et en rotation à l’intérieur du gaz explosif des anciennes supernovae.
Des informations, extraites du récent livre de Thorne, indiquent que Zwicky ne savait rien du rôle possible des « petites particules neutres » dans l’implosion d’une étoile à neutrons, mais qu’il attribuait plutôt la totalité de la perte de masse-énergie aux rayons cosmiques. Alors, si ce n’est pas de Zwicky, quelle est alors l’origine humaine de l’affirmation du Livre d’Urantia selon laquelle les neutrinos s’échappant de son intérieur provoquent l’effondrement de l’étoile implosante ? (Les estimations actuelles attribuent environ 99 % de l’énergie d’une explosion de supernova à l’emport par les neutrinos).
Dans son livre, Thorne déclare en outre : « Les astronomes des années 1930 ont répondu avec enthousiasme au concept de supernova de Baade-Zwicky, mais ont traité les idées de Zwicky sur l’étoile à neutrons et les rayons cosmiques avec dédain… En fait, il ressort clairement d’une étude détaillée que des écrits de Zwicky de l’époque, il ne comprenait pas suffisamment bien les lois de la physique pour pouvoir étayer ses idées. Cette opinion était également partagée par Robert Oppenheimer qui a publié une série d’articles avec les collaborateurs Volkoff, Snyder et Tolman, sur les idées du physicien russe Lev Landau sur l’énergie stellaire provenant d’un noyau de neutrons au cœur d’une étoile. Oppenheimer a ignoré les propositions spéculatives de Zwicky, même s’il devait les connaître puisqu’il travaillait environ la moitié de l’année chez Caltec.
Les articles d’Oppenheimer étaient essentiellement de nature théorique et fondés sur les principes de la physique relativiste. Dans un article de 1939, Oppenheimer et Snyder, n’ayant ni les connaissances détaillées ni les outils de calcul nécessaires pour formuler un modèle réaliste d’une étoile en train de s’effondrer, ils prirent comme point de départ une étoile précisément sphérique, non rotative, non rayonnante, de densité uniforme et sans pression interne. Leurs conclusions comprenaient que, pour un observateur d’un référentiel externe statique, l’implosion d’une étoile massive se fige à la circonférence critique de l’étoile (c’est-à-dire là où la gravité devient si forte que même la lumière ne peut s’échapper) mais, considérée depuis le référentiel de la surface de l’étoile, elle peut continuer à imploser (en fin de compte jusqu’à une singularité de Schwarzschild - le terme « trou noir » n’avait pas encore été inventé).
Les travaux d’Oppenheimer, qui concluaient que les étoiles à neutrons ou les trous noirs pouvaient être le résultat de l’implosion d’étoiles massives, représentaient à peu près le maximum que les physiciens pouvaient faire à l’époque. Pour dissuader encore plus les spéculations sur le sort des étoiles massives en implosion, le physicien le plus éminent de l’époque, Albert Einstein, et le doyen des astronomes, Sir Arthur Eddington, s’opposèrent tous deux vigoureusement aux concepts liés à l’effondrement stellaire au-delà du stade de naine blanche. Ainsi, le sujet semble avoir été mis en suspens au moment du déclenchement de la guerre en 1939.
Au cours des années 1940, pratiquement tous les physiciens compétents étaient occupés à des tâches liées à l’effort de guerre. Apparemment, ce n’était pas le cas pour l’astronome et physicien d’origine russe George Gamow, professeur à Leningrad qui avait accepté un poste à l’université George Washington en 1934. Gamow concevait le début de l’expansion de l’univers par Hubble comme une boule de feu thermonucléaire dans laquelle la matière originelle de la création était un gaz dense de protons, de neutrons, d’électrons et de rayonnement gamma qui se transmutait par une chaîne de réactions nucléaires en la variété d’éléments qui composent le monde d’aujourd’hui. À propos de ces travaux, Overbye[4] écrit : « Dans les années 40, Gamow et un groupe de collaborateurs ont écrit une série d’articles détaillant les détails de la thermonucléogénèse. Malheureusement, leur plan n’a pas fonctionné. Certains noyaux atomiques étaient si instables qu’ils se sont désintégrés avant de pouvoir fusionner à nouveau en quelque chose de plus lourd, brisant ainsi la chaîne de formation des éléments. L’équipe de Gamow s’est dissoute à la fin des années 40, ses travaux étant ignorés et dédaignés. »
Parmi ces travaux, on trouve un article de Gamow et Schoenfeld qui proposait que la perte d’énergie des étoiles vieillissantes soit médiée par un écoulement de neutrinos. Cependant, ils notaient également que « les neutrinos sont toujours considérés comme des particules hautement hypothétiques en raison de l’échec de tous les efforts pour les détecter. » Leur proposition semble avoir été négligée ou ignorée jusqu’aux années 1960.
L’hypothèse de Pauli sur l’existence nécessaire de cette minuscule particule inconnue dépourvue de potentiel électrique, que nous appelons aujourd’hui le neutrino, a été formulée juste avant la découverte du neutron par Chadwick en 1932. Le nom de neutrino a été suggéré par Enrico Fermi. Dans la désintégration bêta, lorsqu’un neutron se décompose en un proton et un électron, la perte de masse est de 0,00029 sur l’échelle de poids atomique, soit environ la masse d’un demi-électron. Dans certains cas de désintégration, l’électron reçoit la majeure partie de l’énergie-masse manquante sous forme d’énergie cinétique. Comme la particule manquante doit également avoir une énergie cinétique, il est devenu évident qu’elle doit être sans masse ou très proche de celle-ci. Beaucoup pensaient qu’elle devait être sans masse comme le photon et se déplacer à la vitesse de la lumière. Bien que personne ne veuille abandonner la loi de conservation de l’énergie, il y avait des doutes considérables quant à la possibilité de la sauver au moyen d’une particule sans charge et probablement sans masse, une particule qui ne pourrait jamais être détectée et dont la seule raison d’être était simplement de sauver une loi. [Note : En 1957, il a été démontré que la loi de conservation de la parité, vieille de 30 ans, était violée lors de l’émission de neutrinos lors de la désintégration radioactive bêta.]
Au fil du temps, le besoin du neutrino s’est accru, non seulement pour sauvegarder la loi de conservation de l’énergie, mais aussi pour conserver la quantité de mouvement, le moment cinétique (spin) et le nombre de leptons. À mesure que la connaissance de ce à quoi elle devrait ressembler grandissait et que les connaissances s’accumulaient grâce aux efforts intenses déployés pour produire la bombe atomique, des moyens possibles de détecter cette particule ont commencé à émerger. En 1953, des expériences sont lancées par une équipe dirigée par CL Cowan et F. Reines.1 Il existe désormais des réacteurs à fission dans lesquels la décomposition de l’uranium produit des neutrons libres qui, en dehors du noyau atomique, sont instables et se décomposent par désintégration bêta. pour produire un proton, un électron et, s’il existait, la particule manquante. Le réacteur à fission choisi à Savannah River, en Caroline du Nord, a été estimé à fournir 1 000 000 000 000 000 000 de fission par seconde. Ce devraient être des antineutrinos.
L’équipe de Cowan et Reines a conçu un système permettant d’introduire les antineutrinos du réacteur dans une cible constituée d’eau. Chaque molécule d’eau est composée de deux atomes d’hydrogène et d’un atome d’oxygène, et les noyaux des atomes d’hydrogène sont des protons. Une substance scintillatrice a été ajoutée à l’eau contenue dans une série de réservoirs entourés de détecteurs à scintillation. Si un antineutrino était absorbé par un proton, on s’attendait à ce qu’un neutron et un positon (antiélectron) se forment. Dans un tel environnement, le positon devrait entrer en collision avec un électron en environ un millionième de seconde, et les deux devraient s’annihiler en produisant deux photons gamma projetés dans des directions exactement opposées. Un perfectionnement supplémentaire a été la détection du neutron nouvellement formé qui, en présence d’ions cadmium, serait immédiatement entraîné dans le noyau de cadmium avec émission de photons d’une énergie combinée de 9 Mev. La détection de cette séquence d’événements annoncerait l’existence de l’antineutrino. En 1956, ce système détectait 70 événements de ce type par jour, le réacteur à fission fonctionnant au-delà du bruit de fond et le réacteur étant arrêté. Il restait maintenant à prouver que cette particule n’était pas sa propre antiparticule, comme c’est le cas pour le photon. C’est ce que fit R. R. Davis en 19561, en utilisant un système conçu spécifiquement pour détecter les propriétés attendues des neutrinos, mais en testant ces propriétés avec des antineutrinos provenant d’un réacteur à fission. Les résultats négatifs ainsi obtenus ont fourni la preuve qu’il s’agissait de deux particules différentes. La confirmation de l’existence du neutrino (par opposition à l’anti-neutrino) fut obtenue en 1965 lorsque des neutrinos provenant du soleil furent détectés dans d’énormes réservoirs de perchloréthylène placés loin sous terre.
Le sujet du sort des étoiles implosées a été rouvert avec vigueur lorsque Robert Oppenheimer et John Wheeler, deux des plus grands noms de la physique, ont assisté à une conférence à Bruxelles en 1958. Oppenheimer pensait que ses articles de 1939 disaient tout ce qui devait être dit. a parlé de telles implosions. Wheeler n’était pas d’accord, voulant savoir ce qui se passait au-delà des lois bien établies de la physique.
Lorsque Oppenheimer et Snyder effectuèrent leurs travaux en 1939, il était impossible de calculer les détails de l’implosion. Entre-temps, la conception des armes nucléaires avait fourni les outils nécessaires car, pour concevoir une bombe, il fallait prendre en compte les réactions nucléaires, les effets de pression, les ondes de choc, la chaleur, les radiations et l’éjection de masse. Wheeler s’est rendu compte que son équipe n’avait qu’à réécrire ses programmes informatiques afin de simuler une implosion plutôt qu’une explosion. Cependant, son équipe de bombes à hydrogène avait été dissoute et il incombait à Stirling Colgate à Livermore, en collaboration avec Richard White et Michael May, de réaliser ces simulations. Wheeler a pris connaissance des résultats et a été en grande partie responsable de l’enthousiasme suscité par cette voie de recherche. Le terme « trou noir » a été inventé par Wheeler.
La base théorique des explosions de supernova aurait été posée par E.M. Burbidge, GR Burbidge, WA Fowler et Fred Hoyle dans un article de 1957[2]. Cependant, même dans le manuel de Hoyle et Narlikar, The Physics-Astronomy Frontier (1980), aucune considération n’est accordée au rôle des neutrinos dans la conduction explosive de l’énergie loin du noyau d’une supernova. Dans leur article de 1957, Hoyle et ses collègues ont proposé que lorsque la température d’une étoile massive vieillissante s’élève à environ 7 milliards de degrés K, le fer est rapidement converti en hélium par un processus nucléaire qui absorbe de l’énergie. En répondant à la demande soudaine de cette énergie, le noyau refroidit rapidement et rétrécit de manière catastrophique, implose en quelques secondes et l’enveloppe extérieure s’écrase dessus. Lorsque les éléments les plus légers sont chauffés par l’implosion, ils brûlent si rapidement que l’enveloppe est projetée dans l’espace. Ainsi, deux ans après la première publication du Le Livre d’Urantia, les autorités les plus éminentes dans le domaine de l’évolution des étoiles ne font aucune référence aux « grandes quantités de minuscules particules dépourvues de potentiel électrique » qui, selon le livre, s’échappent de l’intérieur de l’étoile pour les amener. à propos de son effondrement. Au lieu de cela, ils invoquent la conversion du fer en hélium, un processus consommateur d’énergie que l’on considère désormais comme sans importance.
Après l’article oublié de Gamow et Schoenfeld, l’hypothèse suivante selon laquelle les neutrinos pourraient jouer un rôle dans les supernovae est venue de Hong-Yee Chiu, doctorante sous la direction de Philip Morrison. Chiu a suggéré que vers la fin de la vie d’une étoile massive, le noyau atteindrait des températures d’environ 3 milliards de degrés auxquelles des paires électron-positon se formeraient et qu’une infime fraction de ces paires donnerait naissance à des paires neutrino-antineutrino. Chiu a émis l’hypothèse que des rayons X seraient émis par l’étoile pendant environ 1000 ans et que la température atteindrait finalement environ 6 milliards de degrés lorsqu’un noyau de fer se formerait dans la région centrale de l’étoile. Le flux de paires neutrino-antineutrino serait alors suffisamment important pour emporter l’énergie explosive de l’étoile en une seule journée. La période de 1000 ans prédite par Chiu pour l’émission de rayons X a été réduite à environ un an par des chercheurs ultérieurs. Les propositions de Chiu semblent avoir été publiées pour la première fois dans une thèse de doctorat soumise à l’Université Cornell en 1959. Des références éparses y sont faites par Philip Morrison[3] et par Isaac Asimov[1].
Dennis Overbye, dans son livre Lonely Hearts of the Cosmos[4], rapporte que, pour les supernovae, presque toute l’énergie de la chute libre vers l’intérieur sort sous forme de neutrinos. Le succès de ce scénario (tel que proposé par Chiu) dépend d’une caractéristique de l’interaction faible appelée courants neutres. Sans cela, les neutrinos ne fournissent pas suffisamment de « punch » et les théoriciens n’avaient aucune bonne explication sur la façon dont les étoiles explosent. En réalité, l’existence du courant neutre pour l’interaction faible n’a été démontrée qu’au milieu des années 1970.
Un article de 1985 (Scientific American) de Bethe et Brown intitulé « How a Supernova Explodes » montre que la compréhension du rôle important des neutrinos était déjà bien avancée à cette époque. Ces auteurs attribuent cette compréhension aux simulations informatiques de W. David Arnett de l’Université de Chicago et de Thomas Weaver et Stanford Woosley de l’Université de Californie à Santa Cruz.
Dans un rapport récent paru dans Sky and Telescope (août 1995), il est indiqué qu’au cours de la dernière décennie, les simulations informatiques de supernovae se sont enlisées à 100 ou 150 km du centre et n’ont pas réussi à exploser. Ces modèles étaient unidimensionnels. Avec la disponibilité de plus en plus de puissance informatique, des simulations bidimensionnelles ont désormais été réalisées et des modèles d’explosions de supernova ont été produits. Celui signalé concernait une supernova de 15 masses solaires qui se transformait en étoile à neutrons. Cependant, les auteurs spéculent qu’au moins 5 à 15 implosions de masse solaire pourraient se transformer en trous noirs. Il reste encore un long chemin à parcourir pour comprendre les détails des implosions stellaires.
En nous référant à nos trois alternatives pour expliquer comment la référence au rôle des minuscules particules non chargées dans les explosions de supernova a pu se trouver dans les Cahiers d’Urantia, apparemment en 1934, notre enquête a montré qu’il est peu probable que Zwicky en ait été la source, comme il le croyait fermement. Ce sont les rayons, et non les neutrinos, qui sont responsables de la perte de masse de 10 % lors de la mort de l’étoile.
Rappelant que l’existence des étoiles à neutrons n’a été démontrée qu’en 1967, que certains des plus grands noms de la physique et de l’astronomie étaient totalement opposés au concept d’étoiles effondrées (Einstein, Eddington), et que, jusque dans les années 1960, la majorité des astronomes supposaient que les étoiles massives perdent leur masse au coup par coup avant de se retirer respectablement en tant que naines blanches, il semble qu’il aurait été absurde de tenter de soutenir la réalité d’une révélation au moyen de spéculations sur les événements survenus lors de l’implosion massive d’étoiles à tout moment auparavant. aux années 1960. Si l’on suppose que, sur la base de ce qui aurait dû être l’avis expert d’un astrophysicien compétent mais imprudent, le Dr Sadler a écrit le matériel de la page 464 dans les Cahiers d’Urantia à la suite des concepts sur les neutrinos apparaissant dans Gamow et al. publications, il devient alors nécessaire de se demander pourquoi ces travaux n’ont-ils pas été supprimés lorsque ces travaux ont perdu leur crédibilité plus tard dans les années 1940 ? - et ce d’autant plus que, dans leurs conclusions, Gamow et Schoenfeld ont attiré l’attention sur le fait que les neutrinos étaient encore considérés comme hautement dangereux particules hypothétiques et notant que « la dynamique de l’effondrement représente de très sérieuses difficultés mathématiques ».
Les documents détenus par la Fondation Urantia montrent que le contrat pour préparer les plaques d’impression en nickel à partir du manuscrit des Cahiers d’Urantia a été accepté en septembre 1941. Les épreuves de galère des plaques ont été vérifiées pour les erreurs typographiques par les membres de Le groupe du Dr Sadler, connu sous le nom de Forum, en 1942. L’affaire Sherman décrite dans le livre de Gardner comprenait une tentative de Sherman de prendre le contrôle des plaques d’impression en 1943. Ces plaques étaient conservées dans les coffres des imprimeurs, RR Donnelley & Sons jusqu’à ce que l’impression actuelle du Le Livre d’Urantia. Les réglementations du temps de guerre ont empêché une impression anticipée du livre. Plus tard, cela a été retardé par les révélateurs.
Il a déjà été indiqué que l’article hautement spéculatif de Gamow et Schoenfeld de 1942 n’était probablement pas à l’origine de la déclaration de la page 464 du livre sur l’implosion des étoiles. Les preuves du contrat des plaques d’impression rendent cette hypothèse encore moins probable.
Le langage, le niveau de connaissance et la terminologie de la référence de la page 464, ainsi que les références à la liaison des protons et des neutrons dans le noyau atomique, aux deux types de mésotron et à l’implication de petites particules non chargées dans la désintégration radioactive bêta comme décrit à la page 479, est celui du début des années 1930, et non celui des années 40 et 50. C’est ce que l’on pourrait attendre de la part d’auteurs contraints par le mandat de ne pas révéler leurs connaissances non acquises, sauf dans des circonstances particulières. En appliquant le principe du rasoir d’Occam consistant à donner la préférence à l’explication la plus simple et cohérente avec les faits, l’explication la plus probable pour le matériel susmentionné de la page 464 doit être qu’il est original dans les Cahiers d’Urantia tels que reçus en 1934, et entre donc dans la catégorie nommée dans le mandat révélateur en tant qu’information fournie pour combler les lacunes manquantes de nos connaissances.
« Il existe une curieuse histoire parallèle entre l’histoire des trous noirs et la dérive des continents. Les preuves de ces deux idées étaient déjà incontournables en 1916, mais les deux idées ont été stoppées dans leur élan pendant un demi-siècle par une résistance à la limite de l’irrationnel… mais la « résistance aux deux a commencé à s’effondrer vers 1960. » Werner Israel, cité dans K.S. Thorne (1994) Black Holes and Time Warps (Picador, Londres).
Le Livre d’Urantia déclare catégoriquement que toutes les terres émergées de la Terre étaient à l’origine un seul continent qui s’est ensuite fragmenté, il y a 750 millions d’années (LU 57:8.23), suivi d’une longue période de dérive des continents au cours de laquelle des ponts terrestres se sont formés et brisés à plusieurs reprises.
L’idée de la dérive des continents a été évoquée au 19ème siècle et présentée pour la première fois comme une théorie globale par Wegener en 1912. Elle n’a pas été bien acceptée, étant classée comme pseudoscience. Par exemple, Rollin T. Chamberlin écrivait en 1928, six ans seulement avant de recevoir les Cahiers d’Urantia : « La théorie de Wegener en général est du type sans pieds… Elle joue à un jeu dans lequel il y a peu de règles restrictives… »
Chamberlin a ensuite énuméré 18 points qu’il considérait comme destructeurs de l’hypothèse de la dérive et a en fait commencé son livre par : « Pouvons-nous appeler la géologie une science alors qu’il existe une telle divergence d’opinions sur des questions fondamentales qu’elle rend possible une telle divergence ? théorie comme ça pour se déchaîner ? » Cette théorie est restée discréditée aux yeux de la plupart des géologues jusque dans les années 1960. L’histoire du conflit antérieur et de l’acceptation ultérieure de la dérive des continents a été récemment rapportée par l’historien des sciences H.E. Le Grand (voir réf.).
Le changement d’attitude des géologues, notamment américains, a été initié par des études bathymétriques, paléomagnétiques et sismologiques minutieuses dans la région des longues chaînes de montagnes au fond des océans, comme la dorsale médio-atlantique qui s’étend de l’Islande à l’Antarctique. Au cours des années 1960, des études géophysiques du fond des océans ont révélé que la roche du manteau terrestre fondait, puis était poussée vers le haut, entraînant l’expansion du fond marin. Cette remontée d’eau devrait éloigner les continents, fournissant ainsi la preuve manquante d’un mécanisme physique susceptible de provoquer la dérive des continents. Peu à peu, le terme de dérive des continents a été remplacé par une nouvelle terminologie et est aujourd’hui universellement connu sous le nom de tectonique des plaques.
Les Fascicules d’Urantia qui mentionnent la dérive des continents furent publiés en 1934 et sous forme de livre en 1955. Les auteurs de ces Fascicules ne pouvaient ignorer la nature très fragile de la théorie et devaient savoir qu’elle était tenue en discrédit par la plupart des géologues américains. Par conséquent, à moins que ces auteurs n’aient eu accès à des connaissances préexistantes, ils auraient pu sembler avoir commis une erreur en allant à l’encontre d’une opinion scientifique fortement répandue.
Le Livre d’Urantia est en désaccord avec de nombreuses estimations publiées du temps géologique, par exemple pour les périodes Carbonifère et Dévonien où l’écart peut être d’environ 100 millions d’années. Dans certains domaines, il existe un bon accord ; par exemple le livre (LU 59:6.5) parle de la disparition des ponts terrestres entre les Amériques, l’Europe et l’Afrique il y a entre 160 et 170 millions d’années, et un article de Scientific American, juin 1979, situe cette rupture à 165 millions d’années. il y a. Cependant, des ponts terrestres relièrent à nouveau ces continents plus tard via le Groenland, l’Islande et le détroit de Béring et relièrent également l’Amérique du Sud à l’Australie via l’Antarctique et directement à l’Afrique (The Urantia Book, LU 61:1.12, LU 61:2.3, LU 61:4.3 ; Scientific American, janvier 1983, p.60).
Un aspect des plus remarquables du récit du Livre d’Urantia est la déclaration selon laquelle la fragmentation du supercontinent a commencé il y a 750 millions d’années. Wegener l’a placé il y a 200 millions d’années. L’édition de 1984 de « Science and Technology » de l’Encyclopaedia Britannica présentait ce qui était alors censé être une série de cartes à jour illustrant la progression de la dérive des continents il y a 50 à 200 millions d’années, ce qui est en contradiction avec une représentation similaire dans le Numéro d’avril 1985 de Scientific American d’environ 100 millions d’années dans certains aspects de la progression. Néanmoins, les deux versions situent toujours le début de la dérive des continents il y a environ 200 à 250 millions d’années.
Vers 1980, certains géologues réfléchissaient à nouveau au début de la dérive des continents et, dans un livre intitulé Genesis, publié en 1982, J. Gribbin rapportait l’opinion selon laquelle il aurait pu y avoir un continent préexistant, la Pangée 1, d’environ 600 millions d’habitants. il y a quelques années, qui s’était divisé en quatre nouveaux continents il y a environ 450 millions d’années, à la fin de l’âge ordovicien. Puis, il y a environ 200 millions d’années, on pensait que les continents avaient convergé pour former la Pangée 2, qui s’est rapidement divisée, d’abord en Laurasie et au Gondwanaland ; une nouvelle fragmentation s’est ensuite produite à la fin du Crétacé pour donner une apparence très proche du monde actuel. Une opinion différente a été exprimée dans un article paru dans Scientific American (1984) 250 (2), 41 selon lequel une rupture s’est produite à la fin de l’époque riphérienne, il y a entre 700 et 900 millions d’années ; mais un article de 1987 (Scientific American 256, 84) est plus conservateur et situe la rupture de la Pangée 1 quelque part près du début du précambrien, il y a de l’ordre de 600 millions d’années.
Le développement ultérieur de la théorie de la dérive des continents est passé en revue par IWD Dalziel dans Scientific American 272 (1) 28 (1995). La date proposée pour le début de la fragmentation du premier supercontinent est maintenant estimée à 750 millions d’années – la même que celle donnée dans le Livre d’Urantia. Coïncidence, chance chanceuse ou autre chose ???
Le récit du Livre d’Urantia sur l’histoire géologique de notre planète nous dit que, suite à l’éclatement du supercontinent il y a environ 750 millions d’années, il y a eu des cycles répétés d’élévation et de submersion des terres. Entre 400 et 200 millions d’années environ, la périodicité semble être en moyenne de 25 millions d’années en moyenne, avec des périodes de cycles beaucoup plus fréquentes au cours des périodes du Carbonifère et du Crétacé.
Les changements du niveau de la mer ont souvent été attribués à l’avancée et au retrait des calottes glaciaires polaires, mais cela ne semble pas expliquer les mouvements décrits dans Le Livre d’Urantia. Plus récemment, un mécanisme a été proposé impliquant l’accumulation de chaleur sous les grandes masses terrestres, censé provoquer l’élévation, le bombage et la rupture des continents, puis leur réunification. Bien que le concept ait été avancé principalement pour expliquer le mouvement transversal, il fournit également un mécanisme physique qui pourrait expliquer le mouvement vertical décrit dans Le Livre d’Urantia.
Le mécanisme proposé indique une accumulation de chaleur relativement lente, mais le dégagement ultérieur peut se produire de plusieurs manières, d’où un écart considérable par rapport à la périodicité de l’onde sinusoïdale.
Cette théorie intéressera les lecteurs du Livre d’Urantia qui ont été intrigués par son récit de l’alternance d’élévation et de dépression des continents à une si grande échelle.