Auteur : Sir James Jeans, MA, D. Sc., Sc. D., LL. D., FRS
[ p. 92 ] Jusqu’à présent, notre exploration de l’univers s’est orientée de l’homme vers des choses plus grandes que l’homme ; nous avons exploré des étendues d’espace qui éclipsent l’homme et sa demeure spatiale jusqu’à l’insignifiance la plus totale. Pourtant, nous n’avons exploré qu’environ la moitié de l’étendue totale de l’univers ; une étendue presque égale attend l’exploration en direction de l’infiniment petit. Nous n’apprécions que la moitié de l’infiniment riche du monde qui nous entoure tant que nous n’étendons pas notre étude aux plus petites unités de matière. Cette étude a d’abord été la tâche, et maintenant la brillante réalisation, de la physique moderne.
On peut se demander pourquoi une explication de l’astronomie moderne devrait s’intéresser à cette autre extrémité de l’univers. La réponse est que les étoiles sont bien plus que d’énormes masses inertes ; ce sont des machines en action, générant et émettant le rayonnement qui nous permet de les observer. Nous comprendrons mieux leur mécanisme en étudiant les mécanismes de génération et d’émission du rayonnement sur Terre, ce qui nous plongera au cœur de la physique atomique moderne. Dans le présent ouvrage, nous ne pouvons naturellement pas tenter de couvrir l’intégralité de ce nouveau champ de connaissances ; nous nous concentrerons uniquement sur les aspects importants pour l’interprétation des résultats astronomiques.
Dès le Ve siècle avant Jésus-Christ, la philosophie grecque s’interrogeait vivement sur la continuité ou la discontinuité de la substance ultime de l’univers. Nous nous tenons au bord de la mer, et tout autour de nous, nous voyons des étendues de sable qui, à première vue, semblent continues, mais qui, à y regarder de plus près, se composent de particules dures ou de grains distincts. Devant nous, l’océan, lui aussi, semble continu, et nous constatons qu’il est impossible de le diviser en grains ou en particules, malgré tous nos efforts. Nous pouvons le diviser en gouttes, mais chaque goutte peut ensuite être subdivisée en gouttes plus petites, et il ne semble y avoir aucune raison, à première vue, pour que ce processus de subdivision ne se poursuive pas indéfiniment. La question qui agitait les philosophes grecs était, en effet, de savoir si l’eau de l’océan ou le sable du rivage donnait l’image la plus fidèle de la structure ultime de la substance de l’univers.
L’école de Démocrite, Leucippe et Lucrèce croyait à la discontinuité ultime de la matière ; ils enseignaient que toute substance, après avoir été subdivisée un nombre suffisant de fois, se révélerait constituée de particules dures et discrètes, ne permettant aucune subdivision ultérieure. Pour eux, le sable donnait une meilleure image de la structure ultime que l’eau, car, pensaient-ils, une subdivision suffisante lui donnerait les propriétés granulaires du sable. Et cette conjecture intuitive est amplement confirmée par la science moderne.
La question est en effet résolue dès qu’une fine couche d’une substance présente des qualités essentiellement différentes de celles d’une couche légèrement plus épaisse. Une couche de sable jaune balayée uniformément sur un sol rouge fera apparaître le sol entier jaune s’il y a suffisamment de sable pour former une couche d’au moins un grain d’épaisseur. En revanche, s’il n’y a que la moitié de cette quantité de sable, la rougeur du sol transparaît inévitablement ; il est impossible d’étaler du sable en une couche uniforme d’un demi-grain d’épaisseur seulement. Ce changement soudain des propriétés d’une couche de sable est bien sûr une conséquence de la structure granulaire du sable.
Des changements similaires se produisent dans les propriétés de fines couches de liquide. Une cuillère à café de soupe recouvre le fond d’une assiette creuse, mais une seule goutte ne laisse qu’une éclaboussure disgracieuse. Dans certains cas, il est possible de mesurer l’épaisseur exacte de la couche à partir de laquelle les propriétés des liquides commencent à changer. En 1890, Lord Rayleigh a découvert que de fines pellicules d’huile d’olive flottant sur l’eau changeaient complètement de propriétés dès que leur épaisseur était réduite à moins d’un millionième de millimètre (soit un 25 000 000e de pouce). L’interprétation évidente, confirmée de multiples façons, est que l’huile d’olive est constituée de particules distinctes – analogues aux « grains » d’un tas de sable – dont chacune a un diamètre voisin d’un 25 000 000e de pouce.
Toute substance est constituée de tels « grains ». On les appelle molécules, et les propriétés familières de la matière sont celles de couches épaisses de plusieurs molécules ; celles des couches épaisses de moins d’une seule molécule ne sont connues que du physicien dans son laboratoire.
Comment décomposer une substance en ses grains, ou molécules, ultimes ? Il est facile pour le scientifique de dire qu’en subdivisant l’eau suffisamment longtemps, on obtiendra des grains impossibles à subdiviser davantage ; l’homme ordinaire aimerait que cela se produise.
[ p. 95 ] Heureusement, le processus est d’une extrême simplicité. Prenez un verre d’eau, appliquez une légère chaleur en dessous, et l’eau commence à s’évaporer. Qu’est-ce que cela signifie ? Cela signifie que l’eau est décomposée en ses grains ou molécules ultimes distincts. Si le verre d’eau pouvait être placé sur une balance à ressort suffisamment sensible, nous verrions que le processus d’évaporation ne se déroule pas en continu, couche après couche, mais par saccades, molécule par molécule. Nous constaterions que le poids de l’eau change par sauts, chaque saut représentant le poids d’une seule molécule. Le verre peut contenir n’importe quel nombre entier de molécules, mais jamais de nombres fractionnaires – si les fractions d’une molécule existent, en tout cas, elles n’entrent pas en jeu dans l’évaporation d’un verre d’eau.
L’état gazeux. Les molécules qui se détachent de la surface de l’eau lors de son évaporation forment un gaz : la vapeur d’eau. Un gaz est constitué d’un grand nombre de molécules qui évoluent indépendamment les unes des autres, sauf aux rares instants où deux d’entre elles entrent en collision et perturbent ainsi leur mouvement. L’ampleur de l’interférence entre les molécules dépend évidemment de leur taille ; plus elles sont grandes, plus leurs collisions seront fréquentes et plus elles perturberont leur mouvement. En réalité, l’ampleur de cette interférence constitue le meilleur moyen d’estimer la taille des molécules. Elles s’avèrent extrêmement petites, mesurant pour la plupart environ un cent millionième de pouce de diamètre, et, en règle générale, les molécules les plus simples ont les diamètres les plus petits, comme on peut s’y attendre. La molécule d’eau a un diamètre de 1,8 cent millionième de pouce (4,6 x 10-8 cm), tandis que celui de la molécule d’hydrogène, plus simple, ne mesure qu’un peu plus de [ p. 96 ] cent millionième de pouce (2,7 x 10-8 cm). Le fait qu’un certain nombre de recherches différentes attribuent toutes les mêmes diamètres à ces molécules constitue une excellente preuve de la réalité de leur existence.
Les molécules étant extrêmement petites, elles doivent aussi être extrêmement nombreuses. Une pinte d’eau contient 1,89 x 1025 molécules, chacune pesant 1,06 x 10-24 onces. Si ces molécules étaient mises bout à bout, elles formeraient une chaîne capable de faire le tour de la Terre plus de 200 millions de fois. Si elles étaient dispersées sur toute la surface terrestre, il y aurait près de 100 millions de molécules par centimètre carré. Si l’on considère les molécules comme de minuscules graines, la quantité totale de graines nécessaire pour ensemencer la Terre entière à raison de 100 millions de molécules par centimètre carré pourrait être mise dans un pot d’une pinte.
Ces molécules se déplacent à des vitesses très élevées ; dans l’air ordinaire d’une pièce ordinaire, la vitesse moléculaire moyenne est d’environ 500 yards par seconde. C’est à peu près la vitesse d’une balle de fusil, et c’est bien plus que la vitesse ordinaire du son. Comme nous connaissons cette dernière vitesse par expérience quotidienne, il est facile de se faire une idée des vitesses moléculaires dans un gaz. Ce n’est pas un hasard si les vitesses moléculaires sont comparables à la vitesse du son. Le son est une perturbation qu’une molécule transmet à une autre lorsqu’elle entre en collision avec elle, un peu comme des relais de messagers se transmettant un message, ou des porteurs de torches grecs se transmettant leurs lumières. Entre les collisions, le message est transmis exactement à la vitesse à laquelle les molécules se déplacent. Si celles-ci se déplaçaient toutes exactement à la même vitesse et dans la même direction, le son se propagerait bien sûr à la vitesse des molécules. Mais beaucoup d’entre elles se déplacent sur [ p. 97 ] trajectoires obliques, de sorte que bien que la vitesse moyenne des molécules individuelles dans l’air ordinaire soit d’environ 500 mètres par seconde, la vitesse nette vers l’avant du son n’est que d’environ 370 mètres par seconde.
À des températures élevées, les molécules peuvent avoir des vitesses encore plus grandes ; les molécules de vapeur dans une chaudière peuvent se déplacer à 1 000 mètres par seconde.
C’est la grande vitesse du mouvement moléculaire qui est responsable de la forte pression exercée par un gaz ; toute surface en contact avec ce gaz est exposée à une pluie de molécules se déplaçant chacune à la vitesse d’une balle de fusil. Par exemple, le piston d’un cylindre de locomotive est bombardé par environ 14 x 1028 molécules par seconde. Cette fusillade incessante d’innombrables petites balles propulse le piston vers l’avant dans le cylindre, propulsant ainsi le train. À chaque inspiration, des essaims de millions de millions de molécules pénètrent dans notre corps, chacune se déplaçant à environ 500 mètres par seconde, et seul leur martèlement incessant sur les parois de nos poumons empêche notre poitrine de s’effondrer.
La meilleure image mentale générale que l’on puisse se faire d’un gaz est peut-être celle d’une grêle incessante de balles de fusil ou de plombs de fusil, volant sans distinction dans toutes les directions et se percutant à intervalles fréquents. Dans l’air ordinaire, chaque molécule entre en collision avec une autre molécule environ 3 milliards de fois par seconde et parcourt une distance moyenne d’environ 1/160 000 de pouce [ p. 98 ] entre deux collisions successives. Si l’on comprime un gaz jusqu’à obtenir une densité plus élevée, davantage de molécules sont entassées dans un espace donné, de sorte que les collisions deviennent plus fréquentes et que les molécules parcourent des distances plus courtes entre elles. Si, au contraire, on réduit la pression du gaz, diminuant ainsi sa densité, les collisions deviennent moins fréquentes et la distance parcourue par une molécule entre deux collisions successives – le « libre parcours » comme on l’appelle – augmente. Dans les vides les plus bas actuellement disponibles en laboratoire, une molécule peut parcourir plus de 100 mètres sans entrer en collision avec une autre molécule, bien qu’il y ait encore 600 000 millions de molécules par pouce cube.
Dans des conditions astronomiques, des vides encore plus faibles peuvent se produire. Dans certaines nébuleuses, les molécules de gaz peuvent parcourir des millions de kilomètres sans collision, tant elles sont peu nombreuses dans un volume d’espace donné.
On pourrait penser que les molécules volantes seraient bientôt immobilisées par leurs collisions ; les balles de fusil le feraient sans doute, mais pas les balles de molécules d’un gaz, pour des raisons qui seront maintenant expliquées.
Énergie. La quantité de poudre utilisée pour tirer une balle de fusil donne une mesure de « l’énergie de mouvement » qui est communiquée à la balle. Tirer une balle deux fois plus lourde nécessite deux fois plus de poudre, car l’énergie de mouvement d’une balle, ou de tout autre corps en mouvement, est proportionnelle à son poids. Mais tirer la même balle à une vitesse deux fois plus rapide ne nécessite pas seulement le double de la charge de poudre. Il faut quatre fois plus de poudre, car l’énergie de mouvement d’un corps en mouvement est proportionnelle au carré de sa vitesse. L’automobiliste expérimenté le sait bien : si nos freins arrêtent notre voiture en 6 mètres à 32 km/h, ils ne l’arrêteront pas en 12 mètres à 64 km/h ; nous avons besoin de 24 mètres. Une vitesse deux fois plus rapide nécessite quatre fois plus de distance pour s’arrêter, car une vitesse deux fois plus rapide représente une énergie de mouvement quatre fois supérieure. En général, l’énergie de mouvement de tout corps en mouvement est proportionnelle à la fois à son poids et au carré de sa vitesse[1].
[ p. 99 ] L’une des grandes réussites de la physique du XIXe siècle fut d’établir le principe général connu sous le nom de « conservation de l’énergie ». L’énergie peut exister sous de nombreuses formes et peut changer presque à l’infini d’une forme à une autre, mais elle ne peut jamais être totalement détruite. L’énergie d’un corps en mouvement n’est pas perdue lorsque le corps est immobilisé ; elle prend simplement une autre forme. Lorsqu’une balle est immobilisée en touchant une cible, une partie de son énergie de mouvement sert à chauffer la cible, et une autre partie à chauffer, voire à faire fondre, la balle. Sous sa nouvelle forme de chaleur, il y a autant d’énergie que dans le mouvement initial de la balle.
Selon le même principe, l’énergie est incréable ; toute énergie existante doit avoir existé de tout temps, bien que sous une forme potentiellement totalement différente de sa forme actuelle. Par exemple, la poudre à canon contient une grande quantité d’énergie emmagasinée sous forme d’énergie chimique ; il faut prendre des précautions pour éviter que cette énergie emmagasinée ne se libère soudainement et ne cause des dommages, par exemple en faisant exploser le récipient qui la contient, en projetant des objets dans les airs, etc. Un fusil est en effet un dispositif permettant de libérer l’énergie contenue dans une charge de poudre mesurée et d’en canaliser la plus grande partie possible sous forme d’énergie de mouvement d’une balle. Lorsqu’on tire une balle sur une cible, une quantité d’énergie déterminée (déterminée par la charge de poudre [ p. 100 ] que nous avons utilisée) est transformée, passant de l’énergie chimique contenue dans la poudre à l’énergie de mouvement contenue dans la balle (et, dans une moindre mesure, dans le recul du fusil), puis enfin à l’énergie thermique, contenue en partie dans la balle tirée et en partie dans la cible. L’énergie prend alors trois formes différentes en succession rapide. Toute la vie de l’univers peut être considérée comme des manifestations d’énergie se masquant sous diverses formes, et tous les changements dans l’univers comme de l’énergie passant de l’une à l’autre, sans jamais modifier sa quantité totale. Telle est la grande loi de la conservation de l’énergie.
Parmi les formes d’énergie les plus courantes, on peut citer l’énergie électrique, illustrée par l’énergie d’un accumulateur chargé ou d’un nuage d’orage ; l’énergie mécanique, illustrée par le ressort hélicoïdal d’une montre ou le poids élevé d’une horloge ; l’énergie chimique, illustrée par l’énergie emmagasinée dans la poudre à canon ou dans le charbon, le bois et le pétrole ; l’énergie du mouvement, illustrée par le mouvement d’une balle, et enfin l’énergie thermique, qui, comme nous l’avons vu, est illustrée par la chaleur qui apparaît lorsque le mouvement d’une balle de fusil est arrêté.
Chaleur. Examinons plus en détail la chaleur comme forme d’énergie possible. Pour chauffer une pièce, nous allumons un feu et libérons une partie de l’énergie chimique emmagasinée dans le charbon ou le bois, ou nous allumons un radiateur électrique et laissons le courant électrique nous transporter une partie de l’énergie libérée par la combustion du charbon dans une centrale électrique éloignée. Mais qu’est-ce que la chaleur, en fin de compte, et comment devient-elle une forme d’énergie ?
La chaleur, qu’elle soit celle d’un gaz, d’un liquide ou d’un solide, n’est que [ p. 101 ] l’énergie de mouvement de molécules individuelles. Lorsque nous chauffons l’air d’une pièce, nous accélèreons simplement le mouvement de ses molécules, et la chaleur totale de la substance est l’énergie totale de toutes les molécules qui la composent. En gonflant un pneu de vélo, nous forçons le piston de la pompe vers l’avant en opposition à l’impact des innombrables millions de molécules d’air à l’intérieur de la pompe. En écartant les molécules opposées, le piston augmente leur vitesse de mouvement. L’augmentation de l’énergie de mouvement des molécules qui en résulte est simplement une augmentation de chaleur. Nous pourrions le vérifier en insérant un thermomètre ou, plus simplement encore, en posant notre main sur la pompe ; elle est chaude.
Les molécules d’un solide ne possèdent pas beaucoup d’énergie et ne se déplacent donc pas très vite – si lentement qu’elles changent rarement de position relative, les molécules voisines les serrant si fermement que leur faible énergie de mouvement ne peut les en dégager. Si l’on réchauffe le solide, les molécules acquièrent davantage d’énergie et commencent ainsi à se déplacer plus rapidement. Au bout d’un certain temps, elles se déplacent à une vitesse telle qu’elles peuvent se moquer des forces de retenue exercées par leurs voisines ; chaque molécule possède suffisamment d’énergie de mouvement pour aller où elle veut, et nous avons une multitude de molécules se déplaçant librement comme des unités indépendantes, se bousculant et se poussant les unes contre les autres ; la substance a pris l’état liquide. Pour préciser le tableau, la glace a fondu et s’est transformée en eau ; l’emprise du gel s’est relâchée et les molécules circulent librement les unes à côté des autres. Chacune exerce encore des forces sur ses voisines, mais celles-ci ne sont plus assez fortes pour empêcher tout mouvement. En chauffant davantage le liquide, on augmente encore l’énergie de mouvement des molécules. Celles-ci commencent alors à se détacher complètement de leurs liaisons et à voler librement dans l’espace, formant un gaz ou une vapeur. Si l’on continue à fournir de la chaleur, la substance entière finira par passer à l’état gazeux. Chauffer davantage le gaz ne fait qu’accélérer la vitesse de vol des molécules-balles ; cela augmente leur énergie de mouvement.
L’énergie moyenne de mouvement des molécules d’un gaz est proportionnelle à la température de ce gaz ; c’est d’ailleurs ainsi que la température est définie. Cependant, la température ne doit pas être mesurée sur l’échelle Fahrenheit ou Celsius en usage courant, mais sur ce que l’on appelle l’échelle « absolue », dont le zéro est à -273 °C, ou -469 °Fahrenheit. Ce zéro « absolu », correspondant à la température d’un corps qui n’a plus de chaleur à perdre, est la température la plus basse possible. En laboratoire, on peut s’en approcher à un degré près et constater qu’il gèle l’air, l’hydrogène et même l’hélium, le gaz le plus réfractaire de tous, à l’état solide. Un thermomètre placé dans l’espace interstellaire, loin de toute étoile, n’afficherait probablement qu’une température d’environ quatre degrés au-dessus du zéro absolu, tandis que des températures encore plus basses doivent être atteintes au-delà des limites du système galactique.
Collisions moléculaires. Nous pouvons maintenant essayer d’imaginer une collision entre deux molécules-balles dans un gaz. Des balles de plomb entrant en collision sur un champ de bataille transformeraient probablement la majeure partie de leur énergie de mouvement en énergie thermique ; elles deviendraient plus chaudes, voire fondraient. Mais comment les molécules-balles peuvent-elles transformer leur énergie de mouvement en énergie thermique ? Pour elles, chaleur et énergie de mouvement ne sont pas deux formes d’énergie différentes, elles sont une seule et même chose ; leur chaleur est leur énergie de mouvement. L’énergie totale doit être conservée, et elle ne peut prendre aucune nouvelle forme. Il en résulte donc que lorsque deux molécules-balles entrent en collision, le plus grand [ p. 103 ] événement qui puisse se produire est qu’elles échangent une certaine quantité d’énergie de mouvement. Si leurs énergies de mouvement avant collision étaient, disons, de 7 et 5 respectivement, leurs énergies après collision pourraient être de 6 et 6, ou de 8 et 4, ou de 9 et 3, ou toute autre combinaison qui s’ajoute à 12.
Il en va de même à chaque collision ; l’énergie ne peut être ni perdue ni transformée, et ainsi les balles sur le champ de bataille moléculaire continuent de voler indéfiniment, ne se touchant heureusement qu’entre elles, sans se faire de mal. Leurs énergies de mouvement montent et descendent, puis montent et descendent, selon qu’elles réussissent ou non, mais elles n’ont à craindre que des fluctuations, jamais une perte totale d’énergie ; leur mouvement est perpétuel.
À l’état gazeux, chaque molécule séparée conserve toutes les propriétés chimiques de la substance solide ou liquide dont elle est issue ; les molécules de vapeur, par exemple, humidifient le sel ou le sucre, ou se combinent avec des substances assoiffées comme la chaux vive ou le chlorure de potassium, tout comme le fait l’eau.
Est-il possible de décomposer encore davantage les molécules ? Lucrèce et ses prédécesseurs auraient, bien sûr, répondu : « Non. » Une simple expérience, pourtant hors de leur portée, démontrera rapidement leur erreur.
En faisant glisser les deux fils d’un circuit de sonnerie électrique ordinaire dans un verre rempli d’eau, sur des côtés opposés, on constate que des bulles de gaz s’accumulent sur les fils, et l’examen chimique montre que les deux lots de gaz ont des propriétés totalement différentes. Ils ne peuvent donc pas être tous deux de la vapeur d’eau, et en fait, aucun des deux ne l’est ; l’un s’avère être de l’hydrogène et l’autre de l’oxygène. On constate qu’il y a deux fois plus d’hydrogène que d’oxygène, ce qui nous permet de conclure que le courant électrique a décomposé chaque molécule d’eau en deux parties d’hydrogène et une partie d’oxygène. Ces unités plus petites dans lesquelles une molécule est décomposée sont appelées « atomes ». Chaque molécule d’eau est constituée de deux atomes d’hydrogène (H) et d’un atome d’oxygène (O) ; cela s’exprime par sa formule chimique H20.
Toutes les innombrables substances présentes sur Terre – chaussures, navires, cire à cacheter, choux, rois, charpentiers, morses, huîtres, tout ce à quoi nous pouvons penser – peuvent être analysées en atomes, de cette manière ou d’autres. On pourrait croire qu’un nombre incroyable d’atomes différents émergerait de la riche variété de substances que nous trouvons sur Terre. En réalité, ce nombre est très faible. Les mêmes atomes réapparaissent sans cesse, et la grande variété de substances que nous trouvons sur Terre résulte non pas d’une grande variété d’atomes entrant dans leur composition, mais de la grande variété de façons dont quelques types d’atomes peuvent se combiner – tout comme dans une estampe couleur, trois couleurs peuvent se combiner pour former presque toutes les couleurs que nous rencontrons dans la nature, sans parler d’autres teintes étranges, telles qu’elles n’existent jamais sur terre ou en mer.
L’analyse de toutes les substances terrestres connues n’a révélé jusqu’à présent que 90 types d’atomes différents. Il en existe probablement 92, et il y a des raisons de penser que deux, voire plus, restent encore à découvrir. Même parmi les 90 déjà connus, la majorité sont extrêmement rares, les substances les plus courantes étant formées de combinaisons d’environ 14 atomes différents, par exemple l’hydrogène (H), le carbone ©, l’azote (N), l’oxygène (O), le sodium (Na), le magnésium (Mg), l’aluminium (Al), [ p. 105 ] le silicium (Si), le phosphore §, le soufre (S), le chlore (CI), le potassium (K), le calcium (Ca) et le fer (Fe).
Ainsi, la Terre entière, avec son infinie diversité de substances, se révèle être un édifice construit de briques standard : les atomes. Parmi ceux-ci, seuls quelques types, environ 14, sont présents en abondance dans la structure, les autres n’apparaissant que rarement.
Spectroscopie. Tout comme une cloche frappée avec un marteau émet une note caractéristique, chaque atome placé dans une flamme, un arc électrique ou un tube à décharge émet une lumière caractéristique. Lorsque Newton fit passer la lumière solaire à travers un prisme, il découvrit qu’elle était un mélange de toutes les couleurs de l’arc-en-ciel. De même, le spectroscopiste moderne, doté d’instruments infiniment plus perfectionnés, peut analyser n’importe quelle lumière en déduisant toutes les couleurs qui la composent. L’arc-en-ciel de couleurs ainsi produit – le « spectre » – est traversé par un motif de lignes ou de bandes claires ou sombres que l’astronome utilise pour déterminer les vitesses de récession ou d’approche des étoiles. À partir de l’examen de ce motif, le spectroscopiste expérimenté peut immédiatement annoncer le type d’atome d’où émane la lumière, à tel point que l’un des tests les plus délicats pour détecter la présence de certaines substances est le test spectroscopique.
Cette méthode d’analyse spectroscopique ne se limite en aucun cas aux substances terrestres. En 1814, Fraunhofer répéta l’analyse de la lumière solaire par Newton et découvrit que son spectre était traversé par certaines raies sombres, encore appelées raies de Fraunhofer. Le spectroscopiste n’a aucune difficulté à interpréter ces raies sombres ; elles indiquent la présence dans le Soleil des éléments terrestres courants : l’hydrogène, le sodium, le calcium et le fer. Pour des raisons que nous verrons plus loin (p. 125 ci-dessous), les atomes de ces substances absorbent la lumière de ces couleurs précisément [ p. 106 ] que les raies de Fraunhofer montrent comme absentes du spectre solaire. On sait aujourd’hui que ce spectre est incomparablement plus complexe que Fraunhofer ne le pensait, mais pratiquement toutes les raies qu’il contient peuvent être attribuées à des atomes connus sur Terre, et il en va de même pour les spectres de toutes les étoiles du ciel. Il est tentant de généraliser en affirmant que l’univers entier est constitué uniquement des 90 ou 92 types d’atomes présents sur Terre, mais rien ne justifie à l’heure actuelle cette hypothèse. La lumière que nous recevons du Soleil et des étoiles provient uniquement des couches les plus externes de leur surface et ne nous renseigne donc en rien sur les types d’atomes présents à l’intérieur des étoiles. De fait, nous ignorons totalement les types d’atomes présents à l’intérieur de notre propre Terre.
La structure de l’atome. Jusqu’à une époque récente, les atomes étaient considérés comme les briques permanentes de l’univers. Tous les changements de l’univers étaient censés se résumer à un simple réagencement d’atomes permanents et indestructibles ; tels une boîte de briques pour enfant, ceux-ci construisaient tour à tour de nombreux bâtiments. L’histoire de la physique du XXe siècle est avant tout celle de l’effondrement de ce concept.
C’est vers la fin du siècle dernier que Crookes, Lenard et surtout Sir J.J. Thomson commencèrent à décomposer l’atome. Les structures, considérées depuis plus de 2 000 ans comme les briques incassables de l’univers, se révélèrent soudain très susceptibles d’être fragmentées. Une étape décisive fut franchie en 1895, lorsque Thomson démontra que ces fragments étaient identiques, quel que soit le type d’atome dont ils provenaient ; ils étaient de même poids et portaient des charges électriques négatives égales [ p. 107 ]. C’est en raison de cette dernière propriété qu’on les appela « électrons ». L’atome ne peut cependant être constitué uniquement d’électrons, car comme chaque électron porte une charge électrique négative, une structure composée uniquement d’électrons porterait également une charge négative. Deux charges électriques négatives se repoussent, tout comme deux charges positives, tandis que deux charges, l’une positive et l’autre négative, s’attirent. Il est ainsi facile de déterminer si un corps ou une structure porte une charge électrique positive, négative ou nulle. L’observation montre qu’un atome complet ne porte aucune charge électrique, de sorte qu’il doit y avoir quelque part dans l’atome une charge électrique positive, en quantité juste suffisante pour neutraliser les charges négatives combinées de tous les électrons.
En 1911, des expériences menées par Sir Ernest Rutherford et d’autres ont révélé l’architecture de l’atome. Comme nous le verrons bientôt (p. 112 ci-dessous), la nature elle-même fournit une réserve inépuisable de petites particules chargées d’électricité positive et se déplaçant à très grande vitesse, les particules α émises par des substances radioactives. La méthode de Rutherford consistait en bref à les projeter sur des atomes et à observer le résultat. Et le résultat surprenant qu’il obtint fut que la grande majorité de ces balles traversaient l’atome comme s’il n’existait tout simplement pas. C’était comme tirer sur un fantôme.
Pourtant, l’atome n’était pas entièrement fantomatique. Une infime fraction – peut-être une sur 10 000 – des balles furent déviées de leur trajectoire, comme si elles avaient rencontré un objet très important. Un calcul mathématique démontra que ces obstacles ne pouvaient être que les charges positives manquantes des atomes.
Une étude détaillée des trajectoires de ces projectiles [ p. 108 ] a prouvé que toute la charge positive d’un atome devait être concentrée dans un seul espace très petit, dont les dimensions n’étaient que de l’ordre d’un millionième de millionième de pouce. De cette façon, Rutherford a été amené à proposer la théorie de la structure atomique généralement associée à son nom. Il supposait que les propriétés chimiques et la nature de l’atome résidaient dans un « noyau » central, lourd mais excessivement minuscule, portant une charge électrique positive, autour duquel un certain nombre d’électrons chargés négativement décrivaient des orbites. Il était bien sûr nécessaire de supposer que les électrons étaient en mouvement dans l’atome, sinon l’attraction de l’électricité positive pour l’électricité négative les attirerait immédiatement vers le noyau central — tout comme l’attraction gravitationnelle ferait tomber la Terre vers le Soleil, sans le mouvement orbital du premier. En bref, Rutherford supposait que l’atome était construit comme le système solaire, le noyau central lourd jouant le rôle du soleil et les électrons jouant le rôle des planètes.
La vitesse à laquelle ces électrons parcourent leurs minuscules orbites est impressionnante. Un électron moyen tourne autour de son noyau plusieurs milliards de fois par seconde, à une vitesse de plusieurs centaines de kilomètres par seconde. Ainsi, la petitesse de leurs orbites ne les empêche pas de se déplacer à des vitesses orbitales supérieures à celles des planètes, voire des étoiles elles-mêmes.
En libérant un espace autour du noyau central, et en empêchant ainsi les autres atomes de s’en approcher trop près, ces orbites électroniques donnent sa taille à l’atome. Le volume d’espace libéré par les électrons est infiniment plus grand que le volume total des électrons ; en gros, le rapport des volumes est celui du champ de bataille aux balles. L’atome, avec un rayon d’environ 2 x 10-8 cm, a environ 100 000 fois le diamètre, et donc environ un milliard de millions de fois le volume, d’un seul électron, dont le rayon n’est que d’environ 2 x 10-13 cm. Le noyau, bien qu’il pèse généralement 3 000 ou 4 000 fois plus que tous les électrons de l’atome réunis, est au plus comparable en taille à un seul électron, et peut même être plus petit.
Nous avons déjà évoqué l’extrême vide de l’espace astronomique. Choisissez un point au hasard dans l’espace, et les chances qu’il soit occupé par une étoile sont énormes. Même le système solaire est constitué en grande partie d’espace vide ; choisissez un point au hasard à l’intérieur du système solaire, et les chances qu’il soit occupé par une planète, voire par une comète, une météorite ou un corps plus petit, sont tout aussi énormes. Et nous voyons maintenant que ce vide s’étend également à l’espace de la physique. Même à l’intérieur de l’atome, nous choisissons un point au hasard, et les chances qu’il y soit occupé sont immenses ; elles sont de l’ordre d’au moins des millions de millions contre un. Nous avons vu comment six grains de poussière à l’intérieur de la gare de Waterloo représentaient – ou plutôt surreprésentaient – l’ampleur de la densité stellaire de l’espace. De même, quelques guêpes – six pour l’atome de carbone – volant dans la gare de Waterloo illustreront l’ampleur de la densité électronique de l’atome ; tout le reste n’est que vide. Lorsque nous examinons la structure de l’univers dans son ensemble, des nébuleuses géantes et des vastes espaces interstellaires et intercellulaires jusqu’à la structure minuscule de l’atome, nous ne voyons que peu d’espace vide. Nous vivons dans un univers diaphane ; les motifs, les plans et les conceptions abondent, mais la substance solide est rare.
[ p. 110 ] Numéros atomiques. Le nombre d’électrons qui tournent en orbite dans un atome est appelé le « numéro atomique » de l’atome. Des atomes de tous les numéros atomiques de 1 à 92 ont été trouvés, à l’exception de deux numéros manquants, 85 et 87. Comme déjà mentionné, il est hautement probable que ceux-ci existent également, et qu’il existe 92 « éléments » dont les numéros atomiques occupent toute la gamme des numéros atomiques de 1 à 92 en continu.
L’atome de numéro atomique un est bien sûr le plus simple de tous. Il s’agit de l’atome d’hydrogène, dans lequel un électron solitaire gravite autour d’un noyau dont la charge électrique positive est exactement égale, bien que de signe opposé, à la charge de l’électron négatif.
Vient ensuite l’atome d’hélium, de numéro atomique 2, dont deux électrons gravitent autour d’un noyau quatre fois plus lourd que l’hydrogène, bien que portant seulement deux fois sa charge électrique. Vient ensuite l’atome de lithium, de numéro atomique 3, dont trois électrons gravitent autour d’un noyau six fois plus lourd que l’hydrogène et trois fois plus chargé. Et ainsi de suite jusqu’à l’uranium, le plus lourd de tous les atomes connus sur Terre, qui possède 92 électrons décrivant des orbites autour d’un noyau 238 fois plus lourd que l’hydrogène.
Alors qu’elle s’employait encore à décomposer l’atome en ses éléments constitutifs, la science physique commençait à découvrir que les noyaux eux-mêmes n’étaient ni permanents ni indestructibles. En 1896, Becquerel avait découvert que diverses substances contenant de l’uranium [ p. 111 ] possédaient la propriété remarquable, comme il apparaissait alors, d’affecter spontanément les plaques photographiques à leur proximité. Cette observation conduisit à la découverte d’une nouvelle propriété de la matière, à savoir la radioactivité. Tous les résultats obtenus par l’étude de la radioactivité au cours des années suivantes furent coordonnés dans l’hypothèse de la « désintégration spontanée » avancée par Rutherford et Soddy en 1903. Selon cette hypothèse, dans sa forme actuelle, la radioactivité indique une désintégration spontanée des noyaux des atomes de substances radioactives. Ces atomes sont si loin d’être permanents et indestructibles que leurs noyaux mêmes s’effritent avec le simple écoulement du temps, de sorte que ce qui était autrefois le noyau d’un atome d’uranium se transforme, après un temps suffisant, en noyau d’un atome de plomb.
Le processus de transformation n’est pas instantané ; il se déroule graduellement et par étapes distinctes. Au cours de son déroulement, trois types de produits sont émis, appelés rayons α, rayons β et rayons γ.
Ces rayons furent initialement décrits comme tels car ils ont le pouvoir de pénétrer une certaine épaisseur d’air, de métal ou d’autres substances. Leur véritable nature fut découverte plus tard. Il est bien connu que les forces magnétiques, telles que celles qui se produisent, par exemple, dans l’espace entre les pôles d’un aimant, font dévier une particule en mouvement chargée d’électricité de sa trajectoire rectiligne ; elle dévie dans un sens ou dans l’autre selon qu’elle est chargée d’électricité positive ou négative. En faisant passer les différents rayons émis par des substances radioactives à travers l’espace entre les pôles d’un aimant puissant, on a découvert que les rayons α étaient constitués de particules chargées d’électricité positive, et les rayons β, de particules chargées d’électricité négative. Mais les forces magnétiques les plus puissantes qui pouvaient être employées ne parvinrent pas à provoquer la moindre déviation dans la trajectoire des rayons γ, d’où l’on conclut que les rayons γ n’étaient pas du tout des particules matérielles, ou que, s’ils l’étaient, ils ne portaient aucune charge électrique. La première de ces hypothèse s’est avérée par la suite être la bonne.
α-particules. Les particules chargées positivement qui constituent les rayons α sont généralement décrites comme des α-particules. En 1909, Rutherford et Royds ont laissé des α-particules pénétrer à travers une fine paroi de verre de moins d’un centième de millimètre d’épaisseur dans une chambre d’où elles ne pouvaient pas s’échapper — une sorte de piège à souris pour les α-particules. Ils ont constaté que tant que le nombre de α-particules dans le récipient continuait d’augmenter, une accumulation d’hélium se formait. De cette manière, ils ont établi que les α-particules chargées positivement sont simplement des noyaux d’atomes d’hélium.
Ces particules se déplacent à des vitesses énormes, qui dépendent de la nature de la substance radioactive dont elles sont issues. Les plus rapides, celles émises par le thorium C´, se déplacent à une vitesse de 20 600 kilomètres par seconde ; même les plus lentes, celles d’uranium 1, ont une vitesse de 14 200 kilomètres par seconde, soit environ 30 000 fois la vitesse moléculaire ordinaire dans l’air. Les particules se déplaçant à ces vitesses éliminent toutes les molécules ordinaires ; ceci explique l’immense pouvoir de pénétration des rayons a.
β-particules. En examinant leur mouvement sous l’effet de forces magnétiques, on a découvert que les rayons β étaient constitués d’électrons chargés négativement, exactement semblables à ceux qui tournent en orbite dans tous les atomes. Comme une α-particule porte une charge positive égale à celle de deux électrons, un atome qui a éjecté une α-particule se retrouve [ p. 113 ] avec un déficit de charge positive, ou ce qui revient au même, avec une charge négative, égale à celle de deux électrons. Par conséquent, il est naturel, et en fait presque inévitable, que les éjections de α-particules alternent avec une éjection d’électrons chargés négativement, de sorte que l’équilibre de l’électricité positive et négative dans l’atome puisse être maintenu. Les particules β se déplacent à des vitesses encore plus grandes que les particules α, beaucoup approchant à quelques pour cent près la vitesse de la lumière (186 000 miles par seconde).
L’invention du professeur CTR Wilson, l’un des plus beaux dispositifs connus des sciences physiques, permet d’étudier le mouvement des particules α et β dans un gaz, entrant en collision avec ses molécules. Une chambre, traversée par les particules, est remplie de vapeur d’eau, de telle sorte que le passage d’une particule chargée électriquement laisse derrière elle une traînée de condensations qui peut être photographiée. À titre d’exemple, la Planche XIII montre une photographie prise par le professeur Wilson lui-même, où les traînées des particules α et β apparaissent sur la même plaque. Comme les particules α pèsent environ 7 400 fois plus que les particules β, elles créent naturellement plus de perturbations dans le gaz et laissent ainsi des traces plus larges et plus prononcées ; elles suivent également une trajectoire relativement rectiligne, tandis que les particules β, plus légères, sont déviées de leur trajectoire par de nombreuses molécules qu’elles rencontrent. La plaque présente quatre traces de particules α et une trace de rayons β (beaucoup plus faible). Les projections en forme de bosses visibles sur l’une des traces de rayons α sont intéressantes ; elles représentent les courts trajets des électrons éjectés des atomes par le passage de la particule α[^2].
[ p. 114 ] Rayons γ. Les rayons γ ne sont pas du tout des particules matérielles ; ils s’avèrent être simplement un rayonnement d’un type très particulier, que nous allons maintenant examiner.
Si l’on agite la surface d’un étang avec un bâton, une série d’ondulations se forme à la surface, formant des cercles de plus en plus larges. L’eau résistant au mouvement du bâton, il faut maintenir l’étang en agitation. L’énergie de ce travail se transforme, du moins en partie, en énergie d’ondulations. On constate que les ondulations transportent de l’énergie, car elles provoquent la montée d’un bouchon flottant ou d’un bateau jouet, contre l’attraction terrestre. Ainsi, les ondulations fournissent un mécanisme permettant de répartir à la surface de l’étang l’énergie que nous y injectons par l’intermédiaire du bâton en mouvement.
La lumière et toutes les autres formes de rayonnement sont analogues aux ondulations ou aux ondes de l’eau, car elles distribuent l’énergie depuis une source centrale. Le rayonnement solaire distribue dans l’espace l’immense quantité d’énergie produite à l’intérieur du Soleil. On ignore s’il existe un mouvement ondulatoire réel dans la lumière, mais on sait que la lumière et tous les autres types de rayonnement se propagent sous une forme telle qu’ils possèdent certaines des propriétés d’une succession d’ondes.
Nous avons vu comment les différentes couleurs de lumière qui, combinées, constituent la lumière solaire, peuvent être séparées en la faisant passer à travers un prisme. Un autre instrument, le réseau de diffraction, analyse la lumière en ses longueurs d’onde constitutives[2], qui correspondent aux différentes couleurs de l’arc-en-ciel. Cela démontre que les différentes couleurs de lumière représentent des longueurs d’onde différentes et permet en même temps de mesurer les longueurs d’onde réelles de la lumière de différentes couleurs. Celles-ci s’avèrent très infimes. La lumière la plus rouge que nous puissions voir, qui a la plus grande longueur d’onde, a une longueur d’onde de seulement 3/100 000 de pouce (7,5 x 10-5 cm) ; la lumière la plus violette que nous puissions voir a une longueur d’onde de seulement la moitié de celle-ci, soit 0,000015 pouce. La lumière de toutes les couleurs se propage à la même vitesse uniforme de 300 000 kilomètres, soit 3 x 1010 centimètres, par seconde. Le nombre d’ondes de lumière rouge qui passent par un point fixe en une seconde n’est donc pas inférieur à quatre cents millions de millions. C’est ce qu’on appelle la « fréquence » de la lumière. La lumière violette a une fréquence encore plus élevée, huit cents millions de millions ; lorsque nous voyons de la lumière violette, huit cents millions de millions d’ondes lumineuses pénètrent dans nos yeux chaque seconde.
Le spectre de la lumière solaire analysée semble s’étendre à l’œil nu du rouge au violet, mais ce ne sont pas ses véritables limites. Si certains sels chimiques sont placés au-delà de l’extrémité violette du spectre visible, ils brillent intensément, démontrant que même à l’extérieur, l’énergie est transportée, bien que sous une forme invisible.
Les régions de rayonnement invisible s’étendent à l’infini des deux extrémités du spectre visible. D’une extrémité — le rouge — nous pouvons passer en continu à des ondes du type de celles utilisées pour la transmission sans fil, dont les longueurs d’onde sont de l’ordre de centaines, voire de milliers de mètres. Du violet, nous traversons des ondes de longueurs d’onde de plus en plus courtes — toutes les formes de rayonnement ultraviolet. À des longueurs d’onde d’environ un centième à un millième de la longueur d’onde de la lumière visible, nous arrivons aux rayons X, qui pénètrent à travers des centimètres de notre chair, nous permettant ainsi de photographier les os à l’intérieur. Bien au-delà de ces limites, nous arrivons au type de rayonnement que constituent les rayons γ, dont la longueur d’onde est de l’ordre de 1/10 000 000 000 de pouce, soit seulement environ un cent millième de la longueur d’onde de la lumière visible. Ainsi, les rayons γ peuvent être considérés comme un rayonnement invisible de longueur d’onde extrêmement courte. Nous discuterons plus tard de leur fonction exacte. Pour l’instant, remarquons simplement qu’ils ont d’abord eu la fonction extrêmement utile de voiler les plaques photographiques de Becquerel, permettant ainsi de détecter la propriété radioactive de la matière.
Ainsi, nous voyons que la fragmentation d’un atome radioactif peut être comparée à la décharge d’un canon ; la particule α est le coup de feu tiré, les particules β sont la fumée et les rayons γ sont l’éclair. L’atome de plomb qui reste finalement est le canon déchargé, et l’atome radioactif originel, d’uranium ou autre, était le canon chargé. Et la particularité des canons radioactifs est qu’ils se déclenchent spontanément et d’eux-mêmes. Toutes les tentatives pour appuyer sur la détente ont jusqu’à présent échoué, ou du moins n’ont abouti à aucun résultat concluant ; il ne nous reste plus qu’à attendre, et le canon finira par se déclencher.
[ p. 117 ]
Français À l’exception mineure du potassium et du rubidium (de numéros atomiques 19 et 37), la propriété de radioactivité n’apparaît que dans les atomes les plus complexes et les plus massifs, étant en fait confinée à ceux de numéros atomiques supérieurs à 83. Cependant, bien que les atomes les plus légers ne soient pas sujets à la désintégration spontanée de la même manière que les atomes radioactifs lourds, leurs noyaux sont de structure composite et peuvent être brisés par des moyens artificiels. En 1920, Rutherford, utilisant des atomes radioactifs comme canons, a tiré des particules α sur des atomes légers et a constaté que des impacts directs brisaient leurs noyaux. Il existe cependant une différence significative entre la désintégration spontanée des atomes radioactifs lourds et la désintégration artificielle des atomes légers ; dans le premier cas, outre les rayons β et γ omniprésents, seules les particules α sont éjectées, tandis que dans le second cas, les particules α ne sont pas éjectées du tout, mais des particules d’environ un quart de leur poids seulement, qui se révèlent être identiques aux noyaux des atomes d’hydrogène.
Ces événements sensationnels dans le monde souterrain atomique peuvent être photographiés grâce à la méthode de condensation du professeur CTR Wilson, déjà expliquée. La Planche XIV montre deux collisions d’une particule α avec un atome d’azote, photographiées par M. PMS Blackett. Les lignes droites ne sont que les traces, sans incident, de particules α ordinaires, semblables à celles déjà montrées dans la Planche XIII. Mais une trace de particule α sur chaque photographie se ramifie soudainement, de sorte que la figure complète a la forme d’un Y.
Il y a peu de place pour le doute que dans la fig. 1 la branche se produit parce que la particule α est entrée en collision avec [ p. 118 ] un atome d’azote ; la tige du Y est la trajectoire de la particule α avant la collision ; les deux branches supérieures sont les trajectoires de la particule α et de l’atome d’azote après la collision, ce dernier se déplaçant maintenant à une vitesse énorme et heurtant tout sur son passage. En prenant des photographies simultanées dans deux directions à angle droit, comme le montre la planche, M. Blackett a pu reconstituer l’ensemble de la collision, et les angles se sont avérés correspondre exactement à ceux que la théorie dynamique exigerait sur cette interprétation de la photographie.
Français L’événement photographié dans la fig. 2 est d’un type différent de celui vu dans la fig. 1, car les angles ne concordent pas avec ceux que la théorie dynamique exigerait si les branches supérieures du Y étaient les traces des particules α et de l’atome d’azote comme dans la fig. 1. La tige du Y est toujours une trace ordinaire de particule α, mais la longue branche supérieure faible est la trace d’une particule plus petite qu’une particule α, à savoir une particule d’un quart de poids éjectée du noyau, tandis que la branche plus courte et plus claire est celle de l’atome d’azote se déplaçant en compagnie de la particule α qu’il a capturée. Il faudrait trop d’espace pour décrire en détail la belle méthode par laquelle Blackett a établi cette interprétation de ses photographies, mais il y a peu de place pour douter que dans la fig. 2 il a effectivement réussi à photographier la rupture du noyau d’un atome d’azote.
Isotopes. Deux atomes ont les mêmes propriétés chimiques si les charges électriques positives portées par leurs noyaux sont les mêmes. La quantité de cette charge fixe le nombre d’électrons qui peuvent tourner autour du noyau, ce nombre étant bien sûr exactement celui nécessaire pour neutraliser le champ électrique du noyau, ce qui à son tour fixe le numéro atomique de l’élément. Mais le Dr Aston a démontré que les atomes d’un même élément chimique, par exemple le néon ou le chlore, peuvent avoir des noyaux de poids différents. Les diverses formes que peuvent prendre les atomes d’un même élément chimique sont appelées isotopes, se distinguant bien sûr par leurs poids différents. Aston a en outre fait la découverte très importante que les poids de tous les atomes sont, à une très proche approximation, des multiples d’un seul poids défini. Cette unité de poids est approximativement égale à celle de l’atome d’hydrogène, mais plus près d’un seizième de celle de l’atome d’oxygène. Le poids de tout type d’atome, mesuré selon cette unité, est appelé « poids atomique ».
Protons et électrons. Conjointement avec les résultats de la désintégration artificielle des noyaux atomiques par Rutherford, les travaux d’Aston ont conduit à l’acceptation générale de l’hypothèse selon laquelle l’univers entier est constitué de seulement deux types de briques ultimes, à savoir les électrons et les protons. Chaque proton porte une charge électrique positive exactement égale à la charge négative portée par un électron, mais a environ 1 840 fois le poids de l’électron. Les protons sont supposés être identiques au noyau de l’atome d’hydrogène, tous les autres noyaux étant des structures composites dans lesquelles protons et électrons sont étroitement regroupés. Par exemple, le noyau de l’atome d’hélium, ou particule α, est constitué de quatre protons et de deux électrons, ce qui lui confère environ quatre fois le poids de l’atome d’hydrogène et une charge résultante égale au double de celle du noyau de l’atome d’hydrogène.
Mais ce n’est pas tout. Si c’était le cas, chaque atome complet serait constitué d’un certain nombre [ p. 120 ] N de protons, ainsi que de juste assez d’électrons, à savoir N, pour neutraliser les charges électriques des N protons, de sorte que ses composants seraient exactement les mêmes que ceux de N atomes d’hydrogène. Ainsi, le poids de chaque atome serait un multiple exact du poids d’un atome d’hydrogène. L’expérience montre que ce n’est pas le cas.
Énergie électromagnétique. Pour saisir toute la vérité, il faut reconnaître qu’en plus de contenir des électrons et des protons matériels, l’atome contient un troisième ingrédient que l’on pourrait qualifier d’énergie électromagnétique. On peut la comparer, sans toutefois atteindre une précision scientifique absolue, à un rayonnement en bouteille.
C’est un lieu commun de la théorie électromagnétique moderne que tout rayonnement, quel qu’il soit, emporte avec lui un poids, un poids qui est, à tous égards, aussi réel que celui d’une tonne de charbon. Un rayon lumineux impacte toute surface sur laquelle il tombe, tout comme un jet d’eau, une rafale de vent ou la chute d’une tonne de charbon ; avec une lumière suffisamment intense, on pourrait renverser un homme aussi sûrement qu’avec le jet d’eau d’une lance à incendie. Il ne s’agit pas d’une simple prédiction théorique. La pression de la lumière sur une surface a été détectée et mesurée par des expériences directes. Ces expériences sont extraordinairement difficiles car, selon toutes les normes ordinaires, le poids porté par le rayonnement est extrêmement faible ; le rayonnement total émis par un projecteur de 50 chevaux fonctionnant sans interruption pendant un siècle ne pèse qu’environ un vingtième d’once.
Il s’ensuit que toute substance émettant un rayonnement doit simultanément perdre du poids. En particulier, la désintégration de toute substance radioactive [ p. 121 ] entraîne nécessairement une diminution de poids, puisqu’elle s’accompagne de l’émission de rayonnements sous forme de rayons γ. Le devenir ultime d’une once d’uranium peut être exprimé par l’équation :
Le plomb et l’hélium contiennent ensemble autant d’électrons et autant de protons que l’once d’uranium d’origine, mais leur poids combiné est inférieur au poids de l’uranium d’origine d’environ une partie sur 4000. Là où 4000 onces de matière existaient à l’origine, il n’en reste plus que 3999 ; l’once manquante a disparu sous forme de radiation.
Cela montre clairement que nous ne devons pas nous attendre à ce que les poids des différents atomes soient des multiples exacts de celui de l’atome d’hydrogène ; une telle attente ignorerait le poids de l’énergie électromagnétique embouteillée qui est capable d’être libérée et de se propager dans l’espace sous forme de rayonnement lorsque l’atome change de composition. Le poids de cette énergie est relativement faible, de sorte que l’on peut s’attendre à ce que les poids des atomes soient approximativement des multiples entiers de celui de l’atome d’hydrogène, et cette attente est confirmée, mais ils ne seront pas aussi exactement. Le poids exact de notre édifice atomique n’est pas simplement le poids total de toutes ses briques ; il faut ajouter quelque chose pour le poids du mortier — l’énergie électromagnétique — qui maintient les briques liées entre elles.
Ainsi, l’atome normal est constitué de protons, d’électrons et d’énergie, chacun contribuant à son poids. Lorsque l’atome se réorganise, spontanément ou sous l’effet d’un bombardement, des protons et des électrons peuvent être projetés sous forme de particules matérielles (rayons α et β), et de l’énergie peut également être libérée sous forme de rayonnement. Ce rayonnement peut prendre la forme de rayons γ ou, comme nous le verrons bientôt, d’autres formes de rayonnement visible et invisible. Le poids final de l’atome sera obtenu en déduisant de son poids initial non seulement le poids de tous les électrons et protons éjectés, mais aussi le poids de toute l’énergie libérée sous forme de rayonnement.
La série de concepts que nous abordons maintenant est difficile à saisir et encore plus difficile à expliquer, en grande partie, sans doute, parce que notre esprit ne reçoit aucun secours de notre expérience quotidienne de la nature[3]. Il devient nécessaire de parler principalement en termes d’analogies, de paraboles et de modèles qui ne peuvent prétendre représenter la réalité ultime ; il est en effet téméraire de se risquer à une hypothèse, même quant à la direction dans laquelle se situe la réalité ultime.
Les lois de l’électricité en vigueur jusqu’à la fin du XIXe siècle environ – les célèbres lois de Maxwell et de Faraday – exigeaient que l’énergie d’un atome décroisse continuellement, l’atome diffusant de l’énergie sous forme de rayonnement, lui en laissant donc de moins en moins pour lui-même. Ces mêmes lois prédisaient que toute énergie libérée dans l’espace se transformerait rapidement en rayonnement de longueur d’onde presque infinitésimale. Or, ces choses ne se produisirent pas, ce qui rendit évident l’abandon des lois électrodynamiques alors en vigueur.
Rayonnement de cavité. Un cas crucial d’échec a été fourni par ce que l’on appelle le « rayonnement de cavité ». Un corps comportant une cavité intérieure est chauffé jusqu’à incandescence ; on ne tient pas compte de la lumière et de la chaleur émises par sa surface extérieure, mais la lumière emprisonnée dans la cavité interne est évacuée par une petite fenêtre et analysée en ses couleurs constitutives par un spectroscope ou un réseau de diffraction. C’est ce rayonnement que l’on appelle le « rayonnement de cavité ». Il représente la forme de rayonnement la plus complète possible, un rayonnement où aucune couleur ne manque et où chaque couleur apparaît à sa pleine intensité. Aucune substance connue n’émet un rayonnement aussi complet depuis sa surface, bien que beaucoup s’en approchent. On parle de tels corps comme de « radiateurs complets ».
Les lois de l’électromagnétisme du XIXe siècle prédisaient que la totalité du rayonnement émis par un radiateur plein ou par une cavité devait se situer à l’extrémité violette ou au-delà du spectre, indépendamment de la température précise à laquelle le corps avait été chauffé. En réalité, le rayonnement se trouve généralement accumulé exactement à l’extrémité opposée du spectre, et il ne se conforme en aucun cas aux prédictions des lois du XIXe siècle, ni même n’envisage de le faire.
En 1900, le professeur Planck de Berlin découvrit expérimentalement la loi selon laquelle le « rayonnement de cavité » se répartit entre les différentes couleurs du spectre. Il démontra ensuite comment sa nouvelle loi pouvait être déduite théoriquement d’un système de lois électromagnétiques très différent de celles alors en vigueur.
[ p. 124 ] Planck imaginait que toutes sortes de rayonnements étaient émis par des systèmes de vibrateurs émettant de la lumière lorsqu’ils étaient excités, tout comme des diapasons émettent du son lorsqu’on les frappe. Les anciennes lois électrodynamiques prédisaient que chaque vibration devait progressivement s’arrêter puis s’arrêter, comme le font les vibrations d’un diapason, jusqu’à ce que le vibrateur soit à nouveau excité d’une manière ou d’une autre. Rejetant tout cela, Planck supposait qu’un vibrateur pouvait changer son énergie par à-coups soudains, et de nulle autre manière ; il pouvait avoir un, deux, trois, quatre ou tout autre nombre entier d’unités d’énergie, mais pas de nombres fractionnaires intermédiaires, de sorte que les changements graduels d’énergie étaient rendus impossibles. Le vibrateur, pour ainsi dire, ne gardait pas de petite monnaie et ne pouvait restituer son énergie qu’un shilling à la fois jusqu’à ce qu’il n’en reste plus. De plus, il refusait de recevoir de la petite monnaie, bien qu’il fût prêt à accepter des shillings entiers. Ce concept, sensationnel, révolutionnaire et même ridicule, comme beaucoup le pensaient à l’époque, s’est avéré conduire exactement à la distribution des couleurs réellement observée dans le rayonnement de cavité.
En 1917, Einstein a précisé le concept, tel qu’il prévaut aujourd’hui. Selon une théorie précédemment avancée par le professeur Niels Bohr de Copenhague, une structure atomique ou moléculaire ne change pas de configuration, ni ne dissipe son énergie, par étapes graduelles. La gradualité est bannie de la physique, remplacée par la discontinuité. Une structure atomique possède un certain nombre d’états ou de configurations possibles, entièrement distincts et indépendants les uns des autres, tout comme un poids placé sur un escalier n’a qu’un nombre limité de positions possibles ; il peut se trouver à trois, quatre ou cinq marches plus haut, mais pas à trois quarts ou trois quarts de marches plus haut. Le changement d’une position à une autre s’effectue généralement par rayonnement. Le système peut être propulsé vers le haut en absorbant l’énergie du rayonnement qui l’atteint, ou peut descendre vers un état d’énergie inférieure et ainsi émettre de l’énergie sous forme de rayonnement. Seul un rayonnement d’une couleur définie, et donc d’une longueur d’onde précise, est pertinent pour effectuer un changement d’état particulier. Le problème du déplacement d’un système atomique est comparable à celui de l’extraction d’une boîte d’allumettes d’une machine à sous ; cela ne peut se faire qu’avec un outil spécial, à savoir un penny, qui doit être de taille et de poids précis – une pièce trop petite ou trop grande, trop légère ou trop lourde, est vouée à l’échec. Si nous projetons un rayonnement de mauvaise longueur d’onde sur un atome, nous pourrions reproduire la comédie du millionnaire dont la fortune totale ne lui permettrait pas de s’acheter une boîte d’allumettes faute d’un sou, ou la tragédie de l’enfant qui ne peut se procurer une tablette de chocolat parce que sa fortune accumulée se résume à quelques centimes et demi-centimes, mais nous ne perturberons pas l’atome. Lorsqu’un rayonnement mixte est projeté sur un ensemble d’atomes, ceux-ci absorbent le rayonnement des seules longueurs d’onde nécessaires à la modification de leurs états internes, et aucune autre ; le rayonnement de toutes les autres longueurs d’onde passe sans être affecté.
Cette action sélective de l’atome sur le rayonnement est mise en évidence de diverses manières ; elle est peut-être plus simplement illustrée par les spectres du Soleil et des étoiles. Des raies sombres semblables à celles observées par Fraunhofer dans le spectre solaire sont observées dans les spectres de pratiquement toutes les étoiles (voir Planche VIII, p. 51), et nous pouvons maintenant comprendre pourquoi il en est ainsi. De la lumière de toutes les longueurs d’onde possibles jaillit de l’intérieur chaud [ p. 126 ] d’une étoile et bombarde les atomes qui forment son atmosphère. Chaque atome absorbe le rayonnement qui a précisément la longueur d’onde qui lui convient, mais n’a aucune interaction d’aucune sorte avec les autres, de sorte que le rayonnement finalement émis par l’étoile est déficient dans les longueurs d’onde particulières qui conviennent aux atomes. L’étoile présente donc un spectre d’absorption composé de fines raies. La position de ces raies dans le spectre indique les types de rayonnement absorbés par les atomes stellaires et nous permet ainsi d’identifier les atomes grâce à nos connaissances en laboratoire sur les goûts de différents types d’atomes pour le rayonnement. Mais qu’est-ce qui détermine en fin de compte les types de rayonnement absorbés et rejetés par un atome ?
Planck avait déjà supposé qu’à chaque rayonnement de longueur d’onde est associée une certaine quantité d’énergie, appelée « quantum », qui dépend de la longueur d’onde et de rien d’autre. Le quantum est supposé proportionnel à la « fréquence » (p. 115), ou nombre de vibrations du rayonnement par seconde[4], et donc inversement proportionnel à la longueur d’onde du rayonnement : plus la longueur d’onde est courte, plus l’énergie du quantum est grande, et inversement. La lumière rouge a des quanta faibles, la lumière violette a des quanta énergétiques, et ainsi de suite.
Einstein suppose désormais qu’un rayonnement d’un type donné peut provoquer une modification atomique ou moléculaire, seulement si l’énergie nécessaire à cette modification est précisément égale à celle d’un seul quantum de rayonnement. C’est ce que l’on appelle communément la loi d’Einstein ; elle détermine le type précis de rayonnement nécessaire au fonctionnement de tout mécanisme atomique ou moléculaire de type « pièce dans la fente »[5].
Nous constatons qu’un travail exigeant un seul quantum puissant ne peut être réalisé par deux, ni même par un nombre quelconque, de quanta faibles. Une petite quantité de lumière violette (haute fréquence) peut accomplir ce qu’aucune quantité de lumière rouge (basse fréquence) ne peut accomplir – un phénomène que tout photographe connaît douloureusement ; nous pouvons admettre autant de lumière rouge que nous le souhaitons sans aucun dommage, mais même la plus infime lueur de lumière violette abîme nos plaques.
La loi interdit de faire d’une pierre deux coups, comme de faire d’une pierre deux coups ; le quantum entier est utilisé pour effectuer le changement, de sorte qu’aucune énergie de ce quantum particulier ne reste pour contribuer à un changement ultérieur. Cet aspect de la question est illustré par la loi photochimique d’Einstein : « Dans toute réaction chimique produite par l’incidence de la lumière, le nombre de molécules affectées est égal au nombre de quanta de lumière absorbés. » Ceux qui gèrent des machines à sous connaissent une loi similaire : « Le nombre d’articles vendus est exactement égal au nombre de pièces dans la machine. »
Si l’on considère l’énergie en termes de capacité destructrice, on constate qu’un rayonnement de courte longueur d’onde peut causer davantage de destruction dans les structures atomiques qu’un rayonnement de grande longueur d’onde. Un rayonnement de longueur d’onde suffisamment courte peut non seulement réarranger [ p. 128 ] molécules ou atomes ; il peut également briser tout atome sur lequel il tombe, en éjectant un de ses électrons, donnant lieu à ce que l’on appelle l’action photoélectrique. Il existe également une limite de fréquence définie, de sorte que la lumière dont la fréquence est inférieure à cette limite ne produit aucun effet, quelle que soit son intensité ; alors que dès que l’on passe à des fréquences supérieures à cette limite, la lumière, même de la plus faible intensité, déclenche immédiatement l’action photoélectrique. De même, l’absorption d’un quantum ne brise qu’un seul atome, et n’éjecte ensuite qu’un seul électron de l’atome. Si le rayonnement a une fréquence supérieure à cette limite, de sorte que son quantum a plus d’énergie que le minimum nécessaire pour retirer un seul électron de l’atome, le quantum entier est quand même absorbé, l’excès d’énergie étant maintenant utilisé pour donner du mouvement à l’électron éjecté.
Orbites électroniques. Ces concepts reposent sur l’hypothèse de Bohr selon laquelle seul un nombre limité d’orbites sont accessibles aux électrons d’un atome, toutes les autres étant interdites pour des raisons encore mal comprises, et qu’un électron est libre de passer d’une orbite autorisée à une autre sous l’effet d’un rayonnement. Bohr lui-même a étudié la disposition des différentes orbites autorisées. Les recherches modernes indiquent la nécessité de revoir en profondeur ses concepts simples, mais nous les examinerons en détail, d’une part parce que la représentation de l’atome par Bohr constitue toujours le meilleur modèle mécanique fonctionnel dont nous disposons, et d’autre part parce que la compréhension de sa théorie simple est absolument essentielle à la compréhension des théories beaucoup plus complexes qui commencent à la remplacer.
L’atome d’hydrogène, comme nous l’avons déjà vu, est constitué d’un seul proton comme noyau central, autour duquel gravite un seul électron. Le noyau, pesant environ 1 840 fois le poids de l’électron, est pratiquement immobile, non perturbé par le mouvement de ce dernier, tout comme le soleil reste pratiquement immobile face au mouvement de la terre autour de lui. Le noyau et l’électron portent des charges électriques positives et négatives, et s’attirent donc mutuellement ; c’est pourquoi l’électron décrit une orbite au lieu de s’envoler en ligne droite, comme la terre et le soleil. De plus, l’attraction entre charges électriques de signes opposés, positives et négatives, suit précisément la même loi que la gravitation, l’attraction diminuant comme l’inverse du carré de la distance entre les deux charges. Ainsi, le système noyau-électron est semblable en tous points à un système soleil-planète, et les orbites qu’un électron peut décrire autour d’un noyau central sont précisément identiques à celles qu’une planète peut décrire autour d’un soleil central ; elles consistent en un système d’ellipses ayant chacune le noyau dans un foyer (p. 46).
Or, les concepts généraux de la dynamique quantique interdisent à l’électron de se déplacer indistinctement sur toutes ces orbites. Selon Bohr, l’électron de l’atome d’hydrogène peut se déplacer sur un certain nombre d’orbites circulaires dont les diamètres sont proportionnels aux carrés des nombres naturels 1, 4, 9, 16, 25, . . . ; il peut aussi se déplacer sur une série d’orbites elliptiques dont les plus grands diamètres sont respectivement égaux aux diamètres des orbites circulaires possibles, bien que ces orbites elliptiques soient encore limitées par la condition que leurs excentricités doivent avoir certaines valeurs définies. Toutes les autres orbites sont d’une certaine manière interdites.
Les plus petites orbites que l’électron peut décrire [ p. 130 ] dans l’atome d’hydrogène sont représentées sur la fig. 10. La plus petite de toutes, de diamètre 1, est notée l1 ; au-delà viennent deux orbites de diamètre 4 notées 21, 22 ; puis trois orbites de diamètre 9 notées 31, 32, 33 ; et quatre orbites de diamètre 16 notées 41, 42, 43, 44. Le diagramme s’arrête ici faute de place, mais les orbites disponibles se poursuivent indéfiniment. Même en laboratoire, les électrons peuvent se déplacer sur des orbites d’un diamètre cent fois supérieur à celui marqué 11. Dans les conditions plus raréfiées des atmosphères stellaires, l’atome d’hydrogène peut gonfler jusqu’à atteindre des dimensions encore plus grandes, et les spectres stellaires fournissent la preuve de l’existence d’orbites ayant des dimensions plus de mille fois supérieures à l’orbite 11. Une telle orbite serait représentée sur la figure 10 par un cercle de quatre mètres de diamètre.
Toutes les orbites, qu’elles soient elliptiques ou circulaires, qui ont [ p. 131 ] le même diamètre, ont également la même énergie, mais cette énergie change lorsqu’un électron passe d’une orbite à une autre de diamètre différent. Ainsi, dans une certaine mesure limitée, l’atome constitue un réservoir d’énergie. Ses variations d’énergie sont faciles à calculer ; par exemple, les deux orbites de plus petit diamètre de l’atome d’hydrogène diffèrent en énergie de 16 x 10-12 ergs. Si nous déversons un rayonnement de longueur d’onde appropriée sur un atome dans lequel l’électron décrit la plus petite orbite de toutes, il passe à l’orbite suivante, absorbant 16 x 10-12 ergs d’énergie au cours du processus, et devenant ainsi temporairement un réservoir d’énergie contenant 16 x 10-12 ergs. Si l’atome est perturbé de quelque manière que ce soit de l’extérieur, il peut bien sûr décharger de l’énergie à tout moment, ou il peut absorber encore plus d’énergie et ainsi augmenter sa réserve.
Si nous connaissons toutes les orbites possibles pour un atome, quel que soit son type, il est facile de calculer les variations d’énergie impliquées dans les différentes transitions entre elles. Comme chaque transition absorbe ou libère exactement un quantum d’énergie, nous pouvons immédiatement en déduire les fréquences de la lumière émise ou absorbée lors de ces transitions. En bref, étant donné la disposition des orbites atomiques, nous pouvons calculer le spectre de l’atome. En pratique, le problème prend bien sûr la forme inverse : étant donné le spectre, trouver la structure de l’atome qui l’émet. Le modèle de l’atome d’hydrogène de Bohr est un bon modèle, au moins dans cette mesure : le spectre qu’il émettrait reproduit presque exactement celui de l’hydrogène. Cependant, la concordance n’est pas parfaite, et il est désormais généralement admis que le schéma des orbites de Bohr est inadéquat pour rendre compte des spectres réels. Nous poursuivons l’analyse du schéma de Bohr, non pas parce que l’atome est réellement construit [ p. 13 ] de cette façon, mais parce qu’il fournit un modèle de travail suffisamment bon pour notre objectif actuel.
Une caractéristique essentielle, bien qu’à première vue quelque peu inattendue, de toute la théorie est que même si l’atome d’hydrogène chargé de ses 16 x 10-12 ergs d’énergie est laissé entièrement intact, l’électron doit, après un certain temps, retomber spontanément sur son orbite initiale plus petite, éjectant ainsi ses 16 x 10-12 ergs d’énergie sous forme de rayonnement. Einstein a démontré que, si ce n’était pas le cas, alors la loi bien établie de Planck sur le « rayonnement de cavité » ne pourrait pas être vraie. Ainsi, un ensemble d’atomes d’hydrogène dans lequel les électrons décrivent des orbites plus grandes que la plus petite orbite possible est semblable à un ensemble d’atomes d’uranium ou d’autres atomes radioactifs, en ce sens que les atomes retombent spontanément à leurs états d’énergie inférieure par le simple passage du temps.
Les orbites électroniques des atomes plus complexes présentent une disposition générale très similaire à celle de l’atome d’hydrogène, mais leur taille est différente. Dans l’atome d’hydrogène, l’électron tombe normalement, après un temps suffisant, sur l’orbite de plus basse énergie et y reste. On pourrait penser, par analogie, que dans les atomes plus complexes où plusieurs électrons décrivent des orbites, tous les électrons finiraient par tomber sur l’orbite de plus basse énergie et y rester. Or, tel n’est pas le cas. Il n’y a jamais de place pour plus d’un électron sur la même orbite. C’est un aspect particulier d’un principe général qui semble dominer toute la physique. Il a un nom : « principe d’exclusion » ; mais c’est à peu près tout pour l’instant ; nous commençons à peine à le comprendre. Par un autre de ses aspects particuliers, il se confond avec la vieille pierre angulaire familière de la science qui affirme que deux fragments différents de matière ne peuvent occuper le même espace au même moment. Sans comprendre le principe sous-jacent, nous pouvons accepter le fait que deux électrons non seulement ne peuvent occuper le même espace, mais même la même orbite. C’est comme si, d’une certaine manière, l’électron s’étalait de manière à occuper la totalité de son orbite, ne laissant ainsi place à aucun autre. Il ne faut sans doute pas accepter cela comme une image littérale des choses, et pourtant il ne semble pas improbable que les orbites de plus basse énergie de l’atome d’hydrogène soient des orbites possibles simplement parce que l’électron peut les remplir entièrement, et que des orbites adjacentes soient impossibles parce que l’électron les remplirait ¼ ou 1½ fois, et il en va de même pour des atomes plus complexes. À cet égard, il est peut-être significatif qu’aucun phénomène physique connu ne permette d’affirmer qu’à un instant donné un électron se trouve à tel ou tel point d’une orbite de plus basse énergie ; une telle affirmation paraît dénuée de sens, et la condition d’un atome est apparemment spécifiée avec toute la précision possible en disant qu’à un instant donné un électron se trouve sur une telle orbite, comme ce serait le cas, par exemple, s’il s’était étalé en anneau. On ne peut pas en dire autant des autres orbites. À mesure que l’on passe à des orbites d’énergie plus élevée, et donc de diamètre plus grand, l’indétermination prend progressivement une forme différente, pour finalement perdre peu d’importance. Quelle que soit la forme que prend l’électron lorsqu’il décrit une petite orbite près du noyau, lorsqu’il décrit une très grande orbite plus lointaine, il est devenu une simple particule matérielle chargée d’électricité.
Ainsi, quelle qu’en soit la raison, les électrons qui décrivent des orbites dans le même atome doivent tous être sur des orbites différentes. Les électrons sur leurs orbites sont comme des hommes sur une échelle ; de même que deux hommes ne peuvent pas se tenir sur le même barreau, deux électrons ne peuvent jamais se suivre sur la même orbite. L’atome de néon, par exemple, avec 10 électrons, est dans son état normal de plus basse énergie lorsque ses 10 électrons occupent chacun l’une des 10 orbites dont l’énergie est la plus basse. Pour des raisons que la théorie quantique a enfin réussi à élucider, il existe, dans chaque atome, deux orbites où l’énergie est égale et inférieure à celle de toute autre orbite. Viennent ensuite huit orbites d’énergie égale mais sensiblement supérieure, puis 18 orbites d’énergie égale mais encore supérieure, et ainsi de suite. Comme les électrons de chacun de ces groupes d’orbites ont tous la même énergie, on les appelle communément, dans une terminologie imagée mais trompeuse, des anneaux d’électrons. On les appelle anneau K, anneau L, anneau M, etc. L’anneau i£, le plus proche du noyau, ne peut accueillir que deux électrons. Les électrons supplémentaires sont repoussés vers l’anneau L, qui peut accueillir huit électrons, décrivant tous des orbites différentes mais d’énergie égale. S’il reste encore des électrons à accueillir, ils doivent être transférés vers l’anneau M, et ainsi de suite.
Dans leurs états normaux, l’atome d’hydrogène possède un électron dans son cycle K, tandis que l’atome d’hélium en possède deux, les cycles L, M et supérieurs étant inoccupés. L’atome de complexité immédiatement supérieure, l’atome de lithium, possède trois électrons, et comme son cycle K n’en peut accueillir que deux, il faut se déplacer dans les espaces extérieurs du cycle L. Dans le béryllium, qui possède quatre électrons, deux sont expulsés dans le cycle L. Et ainsi de suite, jusqu’au néon, qui possède dix électrons, moment où le cycle L et le cycle K interne sont remplis. Dans l’atome suivant, le sodium, un des onze électrons est expulsé dans le cycle M, encore plus éloigné, et ainsi de suite. [ p. 135 ] À condition que les électrons ne soient pas excités par un rayonnement ou un autre stimulus, chaque atome descend avec le temps vers un état dans lequel ses électrons occupent ses orbites de plus basse énergie, un dans chacune.
D’après notre expérience, un atome, dès qu’il atteint cet état, devient une véritable machine à mouvement perpétuel, les électrons continuant à se déplacer sur leurs orbites (du moins selon la théorie de Bohr) sans que l’énergie de leur mouvement ne soit dissipée, ni sous forme de rayonnement ni autrement. Il paraît étonnant et tout à fait incompréhensible qu’un atome dans un tel état ne puisse pas céder davantage d’énergie, mais, d’après notre expérience, ce n’est pas le cas. Et cette propriété, bien que mal comprise, est, en dernier ressort, responsable du maintien de l’univers. Si aucune restriction de ce type n’intervenait, toute l’énergie matérielle de l’univers disparaîtrait sous forme de rayonnement en quelques milliardièmes de seconde. Si l’atome d’hydrogène normal était capable d’émettre un rayonnement conformément aux lois de la physique du XIXe siècle, il commencerait, en conséquence directe de cette émission de rayonnement, à se contracter à une vitesse de plus d’un mètre par seconde, l’électron retombant continuellement sur des orbites d’énergie de plus en plus faible. Après environ un milliardième de seconde, le noyau et l’électron entreraient en collision, et l’atome tout entier disparaîtrait probablement dans un éclair de rayonnement. En interdisant toute émission de rayonnement, sauf par quanta complets, et en interdisant toute émission lorsqu’il n’y a plus de quanta disponibles pour la dissipation, la théorie quantique parvient à maintenir l’univers en activité.
Il est difficile de se faire une idée, même la plus vague, des réalités qui sous-tendent tous ces phénomènes. La branche récente de la physique, connue sous le nom de « mécanique ondulatoire », cherche actuellement à les comprendre, mais jusqu’à présent, les progrès ont porté sur la coordination des phénomènes observés plutôt que sur l’étude des réalités. On peut même douter que nous comprenions un jour pleinement les réalités en jeu ; elles pourraient bien être si fondamentales qu’elles échappent à l’entendement humain.
C’est précisément pour cette raison que la physique théorique moderne est si difficile à expliquer et à comprendre. Il est facile d’expliquer le mouvement de la Terre autour du Soleil dans le système solaire. Nous voyons le Soleil dans le ciel ; nous sentons la Terre sous nos pieds, et le concept de mouvement nous est familier par l’expérience quotidienne. Quelle différence lorsque nous essayons d’expliquer le mouvement analogue de l’électron autour du proton dans l’atome d’hydrogène ! Ni vous ni moi n’avons d’expérience directe des électrons ou des protons, et personne n’a encore la moindre idée de ce à quoi ils ressemblent réellement. Nous convenons donc d’élaborer une sorte de modèle dans lequel l’électron et le proton sont représentés par les éléments les plus simples que nous connaissions : de minuscules sphères dures. Le modèle fonctionne bien pendant un temps, puis se brise soudainement entre nos mains. Sous la nouvelle lumière de la mécanique ondulatoire, la sphère dure apparaît comme désespérément inadéquate pour représenter l’électron. Une sphère dure a toujours une position définie dans l’espace ; l’électron, apparemment, n’en a pas. Une sphère dure occupe une quantité d’espace bien définie, un électron — eh bien, il est probablement aussi absurde de discuter de l’espace occupé par un électron que de discuter de l’espace occupé par une peur, une anxiété ou une incertitude, mais si l’on nous demande de dire combien d’espace occupe un électron, la meilleure réponse est peut-être qu’il occupe tout l’espace. Une sphère dure se déplace d’un point à un autre ; notre électron modèle, sautant d’orbite en orbite dans l’atome d’hydrogène modèle, ne se comporte certainement pas comme n’importe quelle sphère dure de notre expérience de veille, et l’électron réel — s’il existe un électron réel dans un atome — probablement encore moins. Pourtant, comme notre esprit n’a jusqu’à présent pas réussi à concevoir une meilleure image de l’atome que ce modèle très imparfait, nous ne pouvons procéder qu’en décrivant les phénomènes en fonction de celui-ci.
Plus une structure électrique est compacte, plus la quantité d’énergie nécessaire pour la perturber est importante ; et, comme cette énergie doit être fournie sous la forme d’un seul quantum, plus l’énergie de ce quantum doit être élevée, et donc plus la longueur d’onde du rayonnement doit être courte. Une structure très compacte ne peut être perturbée que par un rayonnement de très courte longueur d’onde.
Un navire naviguant sur une mer agitée court un risque accru de dommages, et ses passagers un risque accru d’inconfort, lorsque sa longueur est à peu près égale à celle des vagues. Les vagues courtes perturbent un navire court et les vagues longues un navire long, mais une longue houle ne nuit guère à aucun des deux. Cependant, cela ne permet pas de réelle analogie avec les effets des radiations, car la longueur d’onde du rayonnement qui brise une structure électrique est des centaines de fois supérieure à la taille de cette structure. L’analogie nautique avec un tel rayonnement est une très longue houle. À titre indicatif, on peut dire qu’une structure électrique ne sera perturbée que par un rayonnement dont la longueur d’onde est environ égale à 860 fois ses dimensions, et ne sera brisée que par un rayonnement dont la longueur d’onde [ p. 138 ] est inférieure à cette limite[^7]. En bref, la raison pour laquelle la lumière bleue affecte les plaques photographiques, tandis que la lumière rouge ne le fait pas, est que la longueur d’onde de la lumière bleue est inférieure, et celle de la lumière rouge est supérieure, à 860 fois le diamètre de la molécule de bromure d’argent ; nous devons descendre en dessous de la « limite de 860 » avant que quoi que ce soit ne commence à se produire.
Lorsqu’un atome décharge son réservoir d’énergie, la lumière qu’il émet a nécessairement la même longueur d’onde que la lumière absorbée lors de son stockage initial ; les deux quanta d’énergie étant égaux, leurs longueurs d’onde sont identiques. Il s’ensuit que la lumière émise par toute structure électrique aura également une longueur d’onde d’environ 860 fois les dimensions de la structure. La lumière visible ordinaire est principalement émise par les atomes et a donc une longueur d’onde égale à environ 860 diamètres atomiques. C’est précisément parce qu’elle possède cette longueur d’onde qu’elle agit sur les atomes de notre rétine et est donc visible.
Un rayonnement de cette longueur d’onde ne perturbe que les électrons les plus externes d’un atome, mais un rayonnement de longueur d’onde beaucoup plus courte peut avoir des effets bien plus dévastateurs ; le rayonnement X, par exemple, peut briser les anneaux électroniques internes beaucoup plus compacts, les anneaux K, L, etc., de la structure atomique. Un rayonnement [ p. 139 ] de longueur d’onde encore plus courte peut même perturber les protons et les électrons du noyau. Car les noyaux, comme les atomes eux-mêmes, sont des structures de charges électriques positives et négatives, et doivent donc se comporter de manière similaire par rapport au rayonnement qui les atteint, à l’exception de la grande différence de longueur d’onde du rayonnement. Ellis et d’autres ont découvert que le rayonnement γ émis lors de la désintégration des atomes de l’élément radioactif radium-B a des longueurs d’onde de 3,52, 4,20, 4,80, 5,13 et 23 x 10-10 cm. Ces longueurs d’onde ne représentent qu’environ un cent millième de celles de la lumière visible, la raison étant que le noyau atomique n’a qu’environ un cent millième de la dimension de l’atome complet. Un rayonnement de telles longueurs d’onde devrait être tout aussi efficace pour réarranger le noyau du radium-B que celui d’une longueur d’onde 100 000 fois plus longue est efficace pour réarranger l’atome d’hydrogène.
Puisque la longueur d’onde du rayonnement absorbé ou émis par un atome est inversement proportionnelle au quantum d’énergie, le quantum nécessaire pour « activer » le noyau atomique doit avoir environ 100 000 fois l’énergie nécessaire pour « activer » l’atome. Si l’atome d’hydrogène est une machine à sous, seuls des billets de cinq cents livres suffiront à activer les noyaux des atomes radioactifs.
Les noyaux radioactifs, comme ceux de l’azote et de l’oxygène, pourraient probablement être brisés par un bombardement suffisamment intense, bien que les preuves expérimentales sur ce point ne soient pas très précises. Si tel était le cas, chaque particule bombardée devrait apporter à l’attaque une énergie de mouvement au moins égale à celle d’un quantum du rayonnement en question, ce qui nécessiterait qu’elle se déplace à une vitesse extrêmement élevée. La matière à des températures suffisamment élevées contient une réserve abondante de quanta de haute énergie et de particules se déplaçant à grande vitesse.
Température-rayonnement. Dans la vie courante, on parle de chaleur rouge ou de chaleur blanche, c’est-à-dire de la chaleur à laquelle une substance doit être portée pour émettre respectivement une lumière rouge ou blanche. On dit que le filament d’une lampe à filament de carbone est porté au rouge, celui d’une lampe à gaz au jaune. Il n’est pas nécessaire de préciser de quelle substance il s’agit ; si le carbone émet une lumière rouge à une température de 3 000 °C, alors le tungstène ou toute autre substance, porté à cette même température, émettra exactement la même lumière rouge que le carbone, et il en va de même pour les autres couleurs de rayonnement. Ainsi, chaque couleur, et donc chaque longueur d’onde de rayonnement, est associée à une température définie, celle à laquelle cette couleur particulière est la plus abondante dans l’analyse spectroscopique de la lumière émise par un corps chaud. Dès que cette température particulière commence à être approchée, mais pas avant, le rayonnement de la longueur d’onde en question devient abondant ; à des températures bien inférieures à cela, elle est tout à fait inappréciable[6].
Tout comme nous parlons de chaleur rouge ou de chaleur blanche, nous pourrions, bien que nous ne le fassions pas, parler tout à fait légitimement de chaleur X ou de chaleur γ. Plus la longueur d’onde du rayonnement est courte, plus la température qui lui est spécifiquement associée est élevée. Ainsi, à mesure que nous réchauffons une substance, elle émet une lumière de longueur d’onde toujours plus courte et parcourt successivement [ p. 141 ] tout l’arc-en-ciel des couleurs : rouge, orange, jaune, vert, bleu, indigo, violet. Nous ne pouvons pas maîtriser une gamme de températures suffisante pour réaliser l’expérience complète en laboratoire, mais la nature la réalise pour nous dans les étoiles.
Les effets de la chaleur. Nous avons déjà vu qu’un rayonnement de courte longueur d’onde est nécessaire pour briser une structure électrique de petites dimensions. Les courtes longueurs d’onde étant associées à des températures élevées, il apparaît maintenant que plus une structure électrique est petite, plus la chaleur nécessaire à sa rupture est importante. Nous pouvons également calculer la température à laquelle une structure électrique de dimensions données commencera à se briser sous l’effet de la chaleur[7].
Par exemple, un atome ordinaire d’un diamètre d’environ 4 x 10-8 cm sera d’abord brisé à des températures de l’ordre de milliers de degrés. Pour prendre un exemple précis, la lumière jaune de longueur d’onde de 0,00006 cm est spécifiquement associée à la température de 4800 degrés ; cette température représente une « chaleur jaune » moyenne. À des températures bien inférieures à cette valeur, la lumière jaune n’apparaît que lorsqu’elle est créée artificiellement. Mais les étoiles, et tous les autres corps, à une température de 4800 degrés émettent naturellement de la lumière jaune et présentent des raies dans la région jaune de leur spectre, car la lumière jaune enlève l’électron le plus externe aux atomes de calcium et d’éléments similaires. Les électrons de l’atome de calcium commencent à être perturbés lorsqu’une température de 4800 degrés commence à être approchée, mais pas avant. Cette température [ p. 142 ] n’est pas approché sur Terre (sauf dans l’arc électrique et d’autres conditions artificielles), de sorte que les atomes de calcium terrestres sont généralement au repos dans leurs états d’énergie les plus bas.
Pour prendre un autre exemple, la plus courte longueur d’onde du rayonnement émis lors de la transformation de l’uranium est d’environ 0,5 x 10-10 cm, ce qui correspond à la température extrêmement élevée de 5 800 000 000 degrés. Lorsqu’une telle température commence à être approchée, mais pas avant, les constituants des noyaux radioactifs devraient commencer à se réorganiser, tout comme le font les constituants de l’atome de calcium lorsqu’ils approchent une température de 4 800 degrés[8]. Ceci explique bien sûr pourquoi aucune température que nous pouvons contrôler sur Terre n’a d’effet appréciable pour accélérer ou inhiber la désintégration radioactive.
Le tableau de la p. 144 indique les longueurs d’onde du rayonnement nécessaire pour effectuer diverses transformations atomiques. Les deux dernières colonnes indiquent les températures correspondantes et le type de lieu, à notre connaissance, où se trouve cette température. Ces dernières entrées anticipent certains résultats qui seront détaillés au chapitre V ci-dessous (p. 288). Aux endroits où la température est bien inférieure à celle mentionnée dans l’avant-dernière colonne, la transformation en question ne peut être affectée par la chaleur et ne peut donc se produire que spontanément. Il s’agit donc d’un processus entièrement unidirectionnel. Le rayonnement disponible n’étant pas d’une longueur d’onde suffisamment courte pour actionner la machine à sous atomique, la [ p. 143 ] [p. 144] les atomes n’absorbent aucune énergie du rayonnement environnant et retombent donc continuellement dans des états d’énergie inférieure, s’ils existent.
Les longueurs d’onde les plus courtes dont nous avons discuté jusqu’à présent sont celles des rayons γ, mais la dernière ligne du tableau fait référence à un rayonnement dont la longueur d’onde n’est que d’environ un quatre centième de celle du plus court des rayons γ.
Longueurs d’onde (cm) | Nature du rayonnement | Effet sur l’atome | Température (degrés abs.) | Où se trouve-t-on ? |
---|---|---|---|---|
7 500 x 10-8 à 3 750 x 10-8 |
Lumière visible | Perturbe les électrons les plus externes | 3 850° à 7 700° |
Atmosphères stellaires |
250 x 10-8 à 10-8 |
Rayons X | Perturbe les électrons internes | 115 000° à 29 000 000° |
Intérieurs stellaires |
5 x 10-9 à 10-9 |
Rayons γ mous | Enlèvent tous ou presque tous les électrons | 58 000 000° à 290 000 000° |
Régions centrales des étoiles denses |
4 x 10-10 | rayons γ du radium B | Perturbe l’arrangement nucléaire | 720 000 000° | ? |
5 x 10-11 | Rayons γ les plus courts | – | 5 800 000 000° | |
1,3 x 10-13 | Rayonnement hautement pénétrant (?) | Annihilation ou création d’un proton et de l’électron qui l’accompagne | 2 200 000 000 000° |
Depuis 1902, plusieurs chercheurs, dont Rutherford, Cooke, McLennan, Burton, Kolhorster et Millikan, ont découvert que l’atmosphère terrestre est continuellement traversée par un rayonnement dont le pouvoir de pénétration est bien supérieur à celui de tous les rayons γ connus. En envoyant des ballons à grande altitude, Hess, Kolhorster, puis Millikan et Bowen, ont démontré que ce rayonnement est sensiblement plus intense à grande altitude, prouvant ainsi qu’il pénètre dans l’atmosphère terrestre depuis l’extérieur. Si ce rayonnement provenait du Soleil et des étoiles, la majeure partie du rayonnement reçu sur Terre proviendrait du Soleil, et il serait plus intense le jour que la nuit. Or, il s’avère que ce n’est pas le cas, de sorte que le rayonnement ne peut provenir des étoiles et doit donc provenir de nébuleuses ou de masses cosmiques autres que les étoiles. Millikan est convaincu que ses sources se situent hors du système galactique.
La quantité de rayonnement est très importante. Même au niveau de la mer, où elle est la plus faible, Millikan et Cameron constatent qu’elle fragmente environ 1,4 atome par centimètre cube d’air chaque seconde. Elle doit fragmenter des millions d’atomes dans chacun de nos corps chaque seconde, et nous ignorons quels peuvent être ses effets physiologiques. L’énergie totale du rayonnement reçu sur Terre ne représente qu’environ un dixième de celle du rayonnement total, lumière et chaleur confondues, reçu de toutes les étoiles. Cela ne signifie pas que la lumière et la chaleur soient dix fois plus abondantes que ce rayonnement dans l’univers tout entier. Car si le rayonnement provient de régions extragalactiques, alors les étoiles qui nous envoient lumière et chaleur sont relativement proches, tandis que les sources de ce rayonnement hautement pénétrant sont beaucoup plus éloignées. En prenant une moyenne à travers l’ensemble de l’espace, y compris les vastes étendues de l’espace internebulaire, il semble probable que le rayonnement hautement pénétrant soit beaucoup plus abondant que la lumière et la chaleur stellaires, et qu’il soit donc la forme de rayonnement la plus abondante dans tout l’univers.
C’est la forme de rayonnement la plus pénétrante connue. La lumière ordinaire traverse difficilement les métaux ou les substances solides ; seule une infime fraction traverse la plus fine feuille d’or. En raison de leur longueur d’onde plus courte, et donc de leurs quanta plus énergétiques, les rayons X traversent des feuilles d’or ou de plomb de quelques millimètres d’épaisseur. Les rayons γ les plus pénétrants du radium B traversent des centimètres de plomb. Le rayonnement dont nous venons de parler varie en puissance de pénétration ; sa partie la plus pénétrante traverse 5 mètres de plomb.
On ne sait pas exactement si le rayonnement est de la nature d’un rayonnement γ très court ou de nature corpusculaire, comme le rayonnement β ; il peut même s’agir d’un mélange des deux. Son pouvoir de pénétration dépasse de loin celui de tout rayonnement β connu, de sorte que s’il est corpusculaire, [ p. 146 ] les corpuscules doivent se déplacer à une vitesse très proche de celle de la lumière.
Si, comme cela semble beaucoup plus probable, le rayonnement est, au moins en partie, de la nature du rayonnement γ, il devrait être possible de déterminer sa longueur d’onde à partir de son pouvoir de pénétration. Jusqu’à récemment, différentes théories sur la relation entre les deux ont été en vigueur. La théorie la plus récente, celle de Klein et Nishina, plus parfaite et plus complète que toutes les précédentes, attribue à la partie la plus pénétrante du rayonnement la longueur d’onde étonnamment courte de 1,3 x 10-13 cm, comme l’indique le tableau de la p. 144.
La meilleure compréhension de ce phénomène est peut-être l’application de la règle des 860 ; elle montre que le rayonnement briserait une structure électrique dont les dimensions ne sont que d’environ 10-16 cm. Aucune structure formée d’électrons et de protons ne peut être aussi petite, car le rayon d’un seul électron est d’environ 2 x 10-13 cm. Le rayonnement a une longueur d’onde proche de celle nécessaire pour briser le proton lui-même, la structure la plus petite et la plus compacte connue de la science.
En abordant le problème sous un autre angle, les relations numériques déjà données montrent qu’un quantum de rayonnement de cette longueur d’onde doit avoir une énergie égale à 0,0015 erg, et donc un poids d’environ 1,66 x 10-24 grammes. Tout physicien reconnaît immédiatement ce poids, car les meilleures déterminations donnent le poids de l’atome d’hydrogène à 1,662 x 10-24 grammes. Le quantum de rayonnement hautement pénétrant a donc à peu près le poids et l’énergie qui résulteraient de l’annihilation soudaine d’un atome d’hydrogène complet, libérant toute son énergie sous forme de rayonnement.
[ p. 147 ] On peut difficilement supposer que tout le rayonnement hautement pénétrant reçu sur Terre trouve son origine dans l’annihilation d’atomes d’hydrogène. Ne serait-ce que pour cette raison, il n’y a probablement pas assez d’atomes d’hydrogène dans l’univers pour qu’une telle hypothèse soit défendable. L’atome d’hydrogène est constitué d’un proton et d’un électron, et son poids est à peu près le même que le poids combiné d’un proton et d’un électron choisis dans n’importe quel atome de l’univers, de sorte que, avec une approximation assez proche, le quantum de rayonnement hautement pénétrant a la longueur d’onde et l’énergie qui résulteraient de la coalescence et de l’annihilation d’un proton et d’un électron dans n’importe quel atome. Nous avons vu comment les poids des différents types d’atomes connus se rapprochent de multiples entiers du poids de l’atome d’hydrogène, ou pour être plus précis, diffèrent par des pas presque exactement égaux, chacun étant à peu près égal au poids de l’atome d’hydrogène. Le poids du quantum de rayonnement hautement pénétrant est égal à la variation de poids représentée par un seul pas, de sorte que le quantum pourrait être produit par toute transformation dégradant le poids d’un atome d’un seul pas. Dans le cas le plus général possible, cette dégradation de poids doit, autant que nous le voyons, résulter de la coalescence d’un proton et d’un électron, entraînant leur annihilation.
Bien que cela semble de loin la source la plus probable de ce rayonnement, ce n’est pas la seule source concevable. Par exemple, l’isotope le plus abondant du xénon, de numéro atomique 54 et de masse atomique 129, est constitué de 129 protons, 75 électrons nucléaires et 54 électrons orbitaux. La formation soudaine d’un tel atome à partir de 129 protons et 129 électrons entraînerait une perte de poids à peu près égale à celle de l’atome d’hydrogène. Si la formation avait lieu de manière absolument simultanée, de sorte que la totalité de l’énergie libérée était émise de manière catastrophique sous forme d’un seul quantum, ce quantum aurait à peu près la même longueur d’onde et le même pouvoir de pénétration que le rayonnement hautement pénétrant observé. Il y a quelque temps, Millikan a suggéré la formation d’autres atomes complexes à partir de constituants plus simples comme source possible de rayonnement, mais il apparaît maintenant que les schémas qu’il a proposés ne donneraient pas lieu à un rayonnement de longueur d’onde suffisamment courte, du moins si la théorie moderne de Klein-Nishina est correcte.
Sur la base des seules preuves physiques, de tels schémas ne peuvent être écartés comme impossibles, mais ils doivent être considérés comme suspects en raison de leur grande improbabilité. L’atome de xénon, avec ses 258 composants, est une structure extrêmement complexe, et il est extrêmement difficile de croire que ces 258 composants aient pu être assemblés en un atome pleinement formé par un seul acte instantané, accompagné de l’émission catastrophique d’un seul quantum de rayonnement. Si les atomes se construisent un jour à partir de constituants plus simples – et rien ne prouve que ce processus se produise dans la nature – il semble beaucoup plus probable que l’agrégation se fasse par étapes distinctes et que le rayonnement soit émis en plusieurs petits quanta plutôt qu’en un seul grand quantum. De plus, toute hypothèse de ce type doit expliquer la concordance numérique entre le poids calculé des quanta de rayonnement observés et le poids connu de l’atome d’hydrogène par pure coïncidence. Non seulement cela, mais nous devons également supposer que les atomes de xénon, et peut-être d’autres de poids atomique approximativement identique, se forment beaucoup plus fréquemment que les atomes d’autres poids atomiques. En effet, la quantité de rayonnement hautement pénétrant reçue sur Terre est si importante que, si elle était une preuve de la création du xénon, une grande partie de l’univers devrait déjà être constituée de xénon, mélangé peut-être à des éléments de poids atomique presque égal. C’est si loin d’être le cas que le xénon et ses voisins dans le tableau des poids atomiques sont parmi les éléments les plus rares. Pour ces raisons, et en partant du principe général selon lequel l’hypothèse la plus simple et la plus naturelle est toujours préférable en science, nous pouvons dire que l’annihilation des électrons et des protons constitue une origine plus probable et plus acceptable du rayonnement hautement pénétrant observé.
Nous pouvons laisser le problème dans cet état d’incertitude pour le moment, car il apparaîtra plus tard que l’astronomie a quelques preuves à donner sur la question.
[^2] Ceux-ci ont été appelés rayons δ par Bumstead.
Ceci est exprimé par la formule mathématique
La longueur d’onde dans un système d’ondulations est la distance entre la crête d’une ondulation et celle de la suivante, et le terme peut être appliqué à tous les phénomènes de nature ondulatoire. ↩︎
Le lecteur dont l’intérêt se limite à l’astronomie préférera peut-être passer directement au Chapitre III. ↩︎
Plus précisément, si v est la fréquence du rayonnement, son quantum d’énergie est hv, où h est une constante universelle de la nature, dite constante de Planck. Cette constante est de nature physique, l’énergie multipliée par le temps ; sa valeur numérique est : 6,55 x 10-27 ergs x secondes. ↩︎
Sous la forme d’une équation :
La longueur d’onde λ du rayonnement et la température associée T (mesurée en degrés centigrades absolus) sont reliées par la relation bien connue :
λ_T_ = 0,28S5 cm. degré. ↩︎
En combinant la relation qui vient d’être donnée entre T et λ avec celle impliquée dans la loi approximative de la « limite de 860 », nous constatons qu’une structure dont les dimensions sont r cm commencera à être brisée par le rayonnement thermique lorsque la température approchera pour la première fois l/3000_r_ degrés. ↩︎
Si nous supposons que les réarrangements d’une structure électrique peuvent également être effectués en la bombardant avec des particules matérielles, la température à laquelle le bombardement par des électrons, des noyaux ou des molécules devient effectif pour la première fois est à peu près la même que celle à laquelle le rayonnement de la longueur d’onde effective commencerait à être appréciable ; les deux processus commencent à peu près à la même température. ↩︎