Autor: Sir James Jeans, M. A., D. Sc., Sc. D., LL. D., F. R. S.
[p. 92] Hasta ahora, nuestra exploración del universo ha sido en la dirección desde hombre hacia cosas más grandes que el hombre; hemos estado explorando rangos de espacio que empequeñecen al hombre y su hogar en el espacio hasta la total insignificancia. Sin embargo, hemos explorado sólo alrededor de la mitad del rango total del universo; un rango casi igual aguarda la exploración en la dirección de lo infinitamente pequeño. Apreciamos solo la mitad de la riqueza infinita del mundo que nos rodea hasta que extendemos nuestra encuesta hasta las unidades más pequeñas de materia. Este estudio ha sido primero la tarea y ahora el brillante logro de la física moderna.
Quizá se pregunte por qué una descripción de la astronomía moderna debería ocuparse de este otro extremo del universo. La respuesta es que las estrellas son algo más que enormes masas inertes; son máquinas en acción, generando y emitiendo la radiación por la cual las vemos. Comprenderemos mejor su mecanismo estudiando las formas en que se genera y emite la radiación en la Tierra, y esto nos lleva directamente al corazón de la física atómica moderna. En el presente libro, naturalmente, no podemos intentar cubrir la totalidad de este nuevo campo de conocimiento; nos ocuparemos sólo de aquellas partes que son importantes para la interpretación de los resultados astronómicos.
Ya en el siglo V antes de Cristo, la filosofía griega estuvo muy preocupada por la cuestión de si, en última instancia, la sustancia última de [p. 93] el universo era continua o discontinua. Estamos en la orilla del mar, y a nuestro alrededor vemos extensiones de arena que al principio parecen tener una estructura continua, pero que un examen más detenido muestra que consisten en partículas o granos duros separados. Enfrente se extiende el océano, que al principio también parece tener una estructura continua, y encontramos que no podemos dividirlo en granos o partículas, no importa cuánto lo intentemos. Podemos dividirlo en gotas, pero luego cada gota se puede subdividir en gotas más pequeñas, y no parece haber ninguna razón, a primera vista, por qué este proceso de subdivisión no debe continuar para siempre. La cuestión que agitaba a los filósofos griegos era, en efecto, si el agua del océano o la arena de la orilla del mar daban la imagen más fiel de la estructura última de la sustancia del universo.
La escuela de Demócrito, Leucipo y Lucrecio creía en la discontinuidad última de la materia; enseñaron que cualquier sustancia, después de haber sido subdividida un número suficiente de veces, se encontraría que consiste en partículas discretas duras que no admiten subdivisión adicional. Para ellos, la arena proporcionaba una mejor imagen de la estructura última que el agua porque, o al menos eso pensaban, una subdivisión suficiente haría que el agua mostrara las propiedades granulares de la arena. Y esta conjetura intuitiva está ampliamente confirmada por la ciencia moderna.
En efecto, la cuestión queda resuelta tan pronto como se descubre que una capa delgada de una sustancia muestra cualidades esencialmente diferentes de las de una capa ligeramente más gruesa. Una capa de arena amarilla barrida uniformemente sobre un piso rojo hará que todo el piso se vea amarillo si hay suficiente arena para formar una capa de al menos un grano de espesor. Sin embargo, si solo hay la mitad de esta cantidad de arena, la [p. 94] el enrojecimiento del piso inevitablemente se nota; es imposible esparcir arena en una capa uniforme de sólo medio grano de espesor. Este cambio repentino en las propiedades de una capa de arena es, por supuesto, una consecuencia de la estructura granular de la arena.
Se encuentra que ocurren cambios similares en las propiedades de capas delgadas de líquido. Una cucharadita de sopa cubrirá el fondo de un plato hondo, pero una sola gota de sopa únicamente hará una salpicadura desordenada. En algunos casos, es posible medir el espesor exacto de la capa en el que las propiedades de los líquidos comienzan a cambiar. En 1890, Lord Rayleigh descubrió que las películas delgadas de aceite de oliva que flotaban en el agua cambiaban por completo sus propiedades tan pronto como el espesor de la película se reducía a menos de una millonésima de milímetro (o una parte de 25.000.000 de una pulgada). La interpretación obvia, que se confirma de innumerables maneras, es que el aceite de oliva consiste en partículas discretas, análogas a los “granos” en una pila de arena, cada una con un diámetro cercano a la 25.000.000ª de una pulgada [9.842.519ª de cm].
Cada sustancia consta de tales «granos». Se llaman moléculas, y las propiedades familiares de la materia son las de capas de muchas moléculas de espesor; las propiedades de las capas de menos de una molécula de espesor sólo las conoce el físico en su laboratorio.
¿Cómo vamos a descomponer un trozo de sustancia en sus últimos granos o moléculas? Es fácil para el científico decir que, al subdividir el agua durante el tiempo suficiente, llegaremos a granos que no pueden subdividirse más; al hombre común le gustaría verlo hecho.
[p. 95] Afortunadamente, el proceso es extremadamente simple. Tome un vaso de agua, aplique calor suave debajo y el agua comenzará a evaporarse. ¿Qué significa esto? Significa que el agua se está descomponiendo en sus últimos granos o moléculas separados. Si el vaso de agua pudiera colocarse sobre una balanza de resorte suficientemente sensible, veríamos que el proceso de evaporación no procede de forma continua, capa tras capa, sino a sacudidas, molécula a molécula. Deberíamos encontrar el peso del agua cambiando por saltos, cada salto representando el peso de una sola molécula. El vidrio puede contener cualquier número entero de moléculas, pero nunca números fraccionarios; si existen las fracciones de una molécula, en todo caso, no intervienen en la evaporación de un vaso de agua.
El estado gaseoso. Las moléculas que se desprenden de la superficie del agua a medida que se evapora forman un gas: vapor de agua o vapor. Un gas consta de un gran número de moléculas que vuelan de un lado a otro con total independencia unas de otras, excepto en los raros instantes en que dos colisionan, interfiriendo así en el movimiento de la otra. La medida en que las moléculas interfieren entre sí debe depender obviamente de sus tamaños; cuanto más grandes sean, más frecuentes serán sus colisiones y más interferirán con el movimiento de los demás. En realidad, el alcance de esta interferencia proporciona los mejores medios para estimar los tamaños de las moléculas. Resultan ser extremadamente pequeños, siendo en su mayor parte alrededor de una cien millonésima de pulgada de diámetro [2,7 cien millonésima de cm] y, como regla general, las moléculas más simples tienen los diámetros más pequeños, como deberíamos esperar. La molécula de agua tiene un diámetro de 1,8 centésimas de millonésima de pulgada (4,6 x 10-8 cms.), mientras que la molécula de hidrógeno más simple tiene un poco más de [ p. 96] una cienmillonésima de pulgada (2,7 x 10-8 cms.). El hecho de que varias líneas de investigación diferentes atribuyan los mismos diámetros a estas moléculas proporciona una excelente prueba de la realidad de su existencia.
Como las moléculas son extremadamente pequeñas, también deben ser extremadamente numerosas. Una pinta de agua [0,568 l] contiene 1,89 x 1025 moléculas, cada una de las cuales pesa 1,06 x 10-24 onzas [30 x 10-24 g]. Si estas moléculas se colocaran extremo con extremo, formarían una cadena capaz de dar la vuelta a la tierra más de 200 millones de veces. Si estuvieran esparcidos por toda la superficie terrestre de la tierra, habría casi 100 millones de moléculas por cada centímetro cuadrado de tierra. Si pensamos en las moléculas como pequeñas semillas, la cantidad total de semillas necesarias para sembrar toda la tierra a razón de 100 millones de moléculas por pulgada cuadrada se podría poner en una pinta.
Estas moléculas se mueven a velocidades muy altas; en el aire ordinario de una habitación ordinaria, la velocidad molecular media es de unos 500 metros por segundo. Esta es aproximadamente la velocidad de la bala de un rifle, y es algo mayor que la velocidad ordinaria del sonido. Como estamos familiarizados con esta última velocidad por la experiencia cotidiana, es fácil hacerse una idea de las velocidades moleculares en un gas. No es un mero accidente que las velocidades moleculares sean comparables con la velocidad del sonido. El sonido es una perturbación que una molécula pasa a otra cuando choca con ella, algo así como los relevos de mensajeros que se pasan un mensaje entre sí, o los portadores de antorchas griegos que se pasan sus luces. Entre colisiones, el mensaje se transmite exactamente a la velocidad a la que viajan las moléculas. Si todos viajaran exactamente con la misma velocidad y en la misma dirección, el sonido, por supuesto, viajaría con la misma velocidad que las moléculas. Pero muchos de ellos viajan en [p. 97] cursos oblicuos, de modo que aunque la velocidad promedio de las moléculas individuales en el aire ordinario es de aproximadamente 500 yardas por segundo [457 m/s], la velocidad neta de avance del sonido es solo de aproximadamente 370 yardas por segundo [338 m/s].
A altas temperaturas, las moléculas pueden tener velocidades aún mayores; las moléculas de vapor en una caldera pueden moverse a 1000 yardas por segundo [914 m/s].
Es la alta velocidad del movimiento molecular la responsable de la gran presión ejercida por un gas; cualquier superficie en contacto con el gas está expuesta a una lluvia de moléculas, cada una de las cuales se mueve con la velocidad de una bala de rifle. Por ejemplo, el pistón de un cilindro de locomotora es bombardeado por unas 14 x 1028 moléculas cada segundo. Esta descarga incesante de innumerables balas diminutas impulsa el pistón hacia adelante en el cilindro y así impulsa el tren. Con cada respiración que tomamos, enjambres de millones de millones de millones de moléculas ingresan a nuestros cuerpos, cada una moviéndose a unas 500 yardas por segundo, y nada más que su incesante martilleo en las paredes de nuestros pulmones evita que nuestro pecho colapse.
Quizá la mejor imagen mental general que podemos formarnos de un gas es la de una lluvia incesante de perdigones o balas de fusil que vuelan indiscriminadamente en todas direcciones y chocan entre sí a intervalos frecuentes. En el aire ordinario, cada molécula choca con alguna otra molécula aproximadamente 3000 millones de veces por segundo y viaja una distancia promedio de aproximadamente 1/160.000 pulgadas [1/63.000 cm] [p. 98] entre colisiones sucesivas. Si comprimimos un gas a una densidad mayor, se amontonan más moléculas en un espacio determinado, de modo que las colisiones se vuelven más frecuentes y las moléculas viajan distancias más cortas entre colisiones. Si, por el contrario, reducimos la presión del gas, y por lo tanto su densidad, las colisiones se vuelven menos frecuentes y la distancia de viaje de una molécula entre colisiones sucesivas, el «camino libre», como se le llama, aumenta. En el vacío más bajo que actualmente se puede obtener en el laboratorio, una molécula puede viajar más de 100 yardas [91 m] sin chocar con ninguna otra molécula, aunque todavía hay 600.000 millones de moléculas por pulgada cúbica [16 cm3].
Bajo condiciones astronómicas puede ocurrir un vacío aún más bajo. En algunas nebulosas, las moléculas de gas pueden viajar millones de kilómetros sin colisionar, por lo que son pocas las moléculas en un volumen dado de espacio.
Podría pensarse que las moléculas voladoras pronto se detendrían por sus colisiones; las balas de rifle sin duda lo harían, pero no las balas moleculares de un gas, por razones que ahora se explicarán.
Energía. La cantidad de carga de pólvora utilizada para disparar una bala de rifle da una medida de la «energía de movimiento» que se imparte a la bala. Para disparar una bala de doble peso se requiere el doble de pólvora, porque la energía de movimiento de una bala, o incluso de cualquier otro cuerpo en movimiento, es proporcional a su peso. Pero disparar la misma bala con el doble de velocidad no requiere simplemente el doble de la carga de pólvora. Se necesita cuatro veces más polvo, porque la energía de movimiento de un cuerpo móvil es proporcional al cuadrado de su velocidad. El automovilista experimentado está familiarizado con esto; si nuestros frenos detienen nuestro auto en 20 pies [6 m] cuando viajamos a 20 millas por hora [32 km/h], no lo detendrán en 40 pies [12 m] cuando viajamos a 40 millas por hora [64 km/h]; necesitamos 80 pies [24 m]. El doble de velocidad requiere cuatro veces la distancia para detenerse, porque el doble de velocidad representa una energía de movimiento cuádruple. En general, la energía de movimiento de cualquier cuerpo móvil es proporcional tanto al peso del cuerpo como al cuadrado de su velocidad[1].
[p. 99] Uno de los grandes logros de la física del siglo XIX fue establecer el principio general conocido como «conservación de la energía». La energía puede existir en varias formas y puede cambiar casi infinitamente de una forma a otra, pero nunca puede destruirse por completo. La energía de un cuerpo en movimiento no se pierde cuando el cuerpo se detiene, simplemente toma alguna otra forma. Cuando una bala se detiene al golpear un objetivo, parte de su energía de movimiento se dedica a calentar el objetivo y otra parte a calentar, o tal vez incluso a derretir, la bala. En su nueva apariencia de calor, hay tanta energía como la que había en el movimiento original de la bala.
De acuerdo con el mismo principio, la energía no se puede crear; toda la energía existente debe haber existido desde siempre, aunque posiblemente en alguna forma completamente diferente de su forma actual. Por ejemplo, la pólvora contiene una gran cantidad de energía almacenada en forma de energía química; tenemos que tomar precauciones para evitar que esta energía embotellada se libere repentinamente y cause daños, como, por ejemplo, haciendo explotar el recipiente en el que está contenida, golpeando cosas en el aire, etc. Un rifle es, en efecto, un dispositivo para liberar la energía contenida en una carga medida de pólvora y dirigir la mayor cantidad posible de ella en forma de energía de movimiento de una bala. Cuando disparamos una bala a un objetivo, una cantidad específica de energía (determinada por la carga de pólvora [p. 100] que hemos usado) se transforma de energía química, que reside en el polvo, primero en energía de movimiento, que reside en la bala (y en un grado menor en el retroceso del rifle), y finalmente en energía térmica, residiendo en parte en la bala gastada y en parte en el objetivo. Aquí tenemos energía tomando tres formas diferentes en rápida sucesión. Toda la vida del universo puede considerarse como manifestaciones de energía disfrazada de varias formas, y todos los cambios en el universo como energía que va de una de estas formas a la otra, pero siempre sin alterar su cantidad total. Tal es la gran ley de la conservación de la energía.
Entre las formas más comunes de energía se puede mencionar la energía eléctrica, ejemplificada por la energía de un acumulador cargado o de una nube de tormenta: energía mecánica, ejemplificada en el resorte en espiral de un reloj o el peso elevado de un reloj: energía química, como por ejemplo la energía almacenada en la pólvora o en el carbón, la madera y el petróleo; energía de movimiento, ejemplificada por el movimiento de una bala, y finalmente energía térmica, que, como hemos visto, está ejemplificada por el calor que aparece cuando se verifica el movimiento de una bala de rifle.
Calor. Examinemos más a fondo el calor como una posible forma de energía. Cuando queremos calentar una habitación, encendemos un fuego y liberamos parte de la energía química que está almacenada en el carbón o la madera, o encendemos un calentador eléctrico y dejamos que la corriente eléctrica nos transporte parte de la energía que es liberada por la quema de carbón en una central eléctrica distante. Pero, en última instancia, ¿qué es el calor y cómo llega a ser un modo de energía?
El calor, ya sea gas, líquido o sólido, es meramente [p. 101] la energía de movimiento de las moléculas individuales. Cuando calentamos el aire de una habitación simplemente hacemos que sus moléculas se muevan más rápido, y el calor total de la sustancia es la energía total de todas las moléculas que la componen. Al inflar un neumático de bicicleta, hacemos avanzar el pistón de la bomba en oposición al impacto de innumerables millones de moléculas de aire dentro de la bomba. Al presionar las moléculas en oposición fuera de su camino, el pistón aumenta su velocidad de movimiento. El aumento resultante en la energía de movimiento de las moléculas es simplemente un aumento de calor. Podríamos verificar esto insertando un termómetro, o, más simplemente, poniendo nuestra mano en la bomba; se siente caliente.
Las moléculas de un sólido no poseen mucha energía y, por lo tanto, no se mueven muy rápido, tan lentamente que rara vez cambian sus posiciones relativas, las moléculas vecinas las agarran tan firmemente que su débil energía de movimiento no puede liberarlas. Si calentamos el sólido, las moléculas adquieren más energía y así comienzan a moverse más rápido. Después de un tiempo, se están moviendo a tal velocidad que pueden reírse de los tirones que los restringen a sus vecinos; cada molécula tiene suficiente energía de movimiento para ir a donde le plazca, y tenemos una multitud de moléculas que se mueven libremente como unidades independientes, empujándose unas a otras y abriéndose paso entre sí; la sustancia ha asumido el estado líquido. Para tener una imagen más clara, el hielo se ha derretido y se ha convertido en agua; el agarre helado se relaja y las moléculas fluyen libremente unas frente a otras. Cada una todavía ejerce fuerzas sobre sus vecinos, pero estas ya no son lo suficientemente fuertes como para impedir todo movimiento. Si calentamos más el líquido, aumentando así aún más la energía de movimiento de las moléculas, estas comienzan a soltarse por completo de sus enlaces y vuelan [p. 102] libremente en el espacio formando un gas o vapor. Si continuamos suministrando calor, toda la sustancia asumirá con el tiempo el estado gaseoso. Calentar aún más el gas simplemente hace que las moléculas-balas vuelen más rápido; aumenta su energía de movimiento.
La energía promedio de movimiento de las moléculas en un gas es proporcional a la temperatura del gas; de hecho, esta es la forma en que se define la temperatura. Sin embargo, la temperatura no debe medirse en la escala Fahrenheit o Centígrados en el uso ordinario, sino en lo que se llama la escala «absoluta», que tiene su cero en -273° Centígrados, o -469° Fahrenheit. Este cero «absoluto», siendo la temperatura de un cuerpo que no tiene más calor que perder, es la temperatura más baja posible. Podemos acercarnos a aproximadamente un grado en el laboratorio y encontrar que congela el aire, el hidrógeno e incluso el helio, el gas más refractario de todos, sólido. Un termómetro colocado en el espacio interestelar, lejos de cualquier estrella, probablemente mostraría una temperatura de sólo unos cuatro grados por encima del cero absoluto.
Colisiones moleculares. Ahora podemos tratar de imaginar una colisión entre dos moléculas-balas en un gas. Las balas de plomo que chocan en un campo de batalla probablemente cambiarían la mayor parte de su energía de movimiento en energía térmica; se calentarían más, o tal vez incluso se derretirían. Pero, ¿cómo pueden las moléculas-balas transformar su energía de movimiento en energía térmica? Para ellos, el calor y la energía del movimiento no son dos formas diferentes de energía, son una y la misma cosa; su calor es su energía de movimiento. La energía total debe ser conservada, y no hay ningún nuevo disfraz que pueda asumir. Entonces sucede que cuando dos moléculas-balas chocan, lo que más [p. 103] suele ocurrir es que pueden intercambiar una cierta cantidad de energía de movimiento. Si sus energías de movimiento antes del choque eran, digamos, 7 y 5 respectivamente, sus energías después del choque pueden ser 6 y 6, u 8 y 4, o 9 y 3, o cualquier otra combinación que sume 12.
Es lo mismo en cada colisión; la energía no puede perderse ni transformarse, y así las balas en el campo de batalla molecular siguen volando para siempre, felizmente golpeándose unas a otras, y sin hacerse daño unas a otras cuando golpean. Sus energías de movimiento suben y bajan, bajan y suben, según acierten o al revés, pero lo más que han de temer son las fluctuaciones y nunca la pérdida total de energía; su movimiento es perpetuo.
En estado gaseoso, cada molécula separada conserva todas las propiedades químicas de la sustancia sólida o líquida de la que se originó; las moléculas de vapor, por ejemplo, humedecen la sal o el azúcar, o se combinan con sustancias ávidas de humedad como la cal viva o el cloruro de potasio, tal como lo hace el agua.
¿Es posible romper aún más las moléculas? Lucrecio y sus predecesores, por supuesto, habrían dicho: «No». Un simple experimento, que, sin embargo, estaba más allá de su alcance, demostrará rápidamente que estaban equivocados.
Al deslizar los dos cables de un circuito de timbre eléctrico ordinario en un vaso de agua, por lados opuestos, se encontrarán burbujas de gas que se acumulan en los cables, y el examen químico muestra que los dos lotes de gas tienen propiedades completamente diferentes. No pueden, pues, ser ambos vapor de agua, y de hecho ninguno de ellos lo es; uno resulta ser hidrógeno y el otro [p. 104] oxígeno. Se encuentra que hay el doble de hidrógeno que de oxígeno, de donde concluimos que la corriente eléctrica ha descompuesto cada molécula de agua en dos partes de hidrógeno y una de oxígeno. Estas unidades más pequeñas en las que se divide una molécula se denominan «átomos». Cada molécula de agua consta de dos átomos de hidrógeno (H) y un átomo de oxígeno (O); esto se expresa en su fórmula química H20.
Todas las innumerables sustancias que existen en la tierra: zapatos, barcos, lacre, coles, reyes, carpinteros, morsas, ostras, todo lo que se nos ocurra, pueden analizarse en sus átomos constituyentes, ya sea de esta o de otras maneras. Podría pensarse que de la rica variedad de sustancias que encontramos en la Tierra surgiría un número bastante increíble de diferentes tipos de átomos. En realidad, el número es bastante pequeño. Los mismos átomos aparecen una y otra vez, y la gran variedad de sustancias que encontramos en la tierra resultan, no de una gran variedad de átomos que entran en su composición, sino de la gran variedad de formas en que se pueden combinar algunos tipos de átomos —del mismo modo que en una impresión en color se pueden combinar tres colores para formar casi todos los colores que encontramos en la naturaleza, sin mencionar otros matices extraños que nunca hubo en la tierra o el mar.
El análisis de todas las sustancias terrestres conocidas ha revelado, hasta ahora, solo 90 tipos diferentes de átomos. Probablemente existan 92, habiendo razones para pensar que dos, o posiblemente incluso más, aún quedan por descubrir. Incluso de los 90 ya conocidos, la mayoría son extremadamente raros, las sustancias más comunes se forman a partir de combinaciones de alrededor de 14 átomos diferentes, digamos hidrógeno (H), carbono ©, nitrógeno (N), oxígeno (O), sodio (Na), magnesio (Mg), aluminio (Al), [p. 105] silicio (Si), fósforo §, azufre (S), cloro (CI), potasio (K), calcio (Ca) y hierro (Fe).
De esta manera, la tierra entera, con su infinita diversidad de sustancias, se encuentra como un edificio construido con ladrillos estándar: los átomos. Y de estos, solo unos pocos tipos, alrededor de 14, ocurren abundantemente en la estructura, los otros aparecen pero rara vez.
Espectroscopía. Así como una campana golpeada con un martillo emite una nota característica, así cada átomo puesto en una llama o en un arco eléctrico o tubo de descarga, emite una luz característica. Cuando Newton hizo pasar la luz del sol a través de un prisma, descubrió que era una mezcla de todos los colores del arcoíris. Del mismo modo, el espectroscopista moderno, con instrumentos infinitamente más refinados, puede analizar cualquier luz en todos los colores constituyentes que entran en su composición. El arco iris de colores así producido —el «espectro»— está atravesado por el patrón de líneas o bandas claras u oscuras que el astrónomo utiliza para determinar las velocidades de recesión o aproximación de las estrellas. A partir de un examen de este patrón, el espectroscopista experto puede anunciar de inmediato el tipo de átomo del que emana la luz, tanto es así que una de las pruebas más delicadas para la presencia de ciertas sustancias es la prueba espectroscópica.
Este método espectroscópico de análisis no se limita de ninguna manera a las sustancias terrestres. En 1814, Fraunhofer repitió el análisis de la luz solar de Newton y encontró que su espectro estaba atravesado por ciertas líneas oscuras, todavía conocidas como líneas de Fraunhofer. El espectroscopista no tiene dificultad en interpretar estas líneas oscuras; indican la presencia en el sol de los elementos terrestres comunes, hidrógeno, sodio, calcio y hierro. Por razones que veremos más adelante (p. 125 más abajo), los átomos de estas sustancias absorben la luz precisamente de aquellas [p. 106] colores que las líneas de Fraunhofer muestran que están ausentes del espectro solar. Ahora se sabe que este espectro es incomparablemente más complejo de lo que pensaba Fraunhofer, pero prácticamente todas las líneas que aparecen en él pueden ser asignadas a átomos conocidos en la tierra, y lo mismo ocurre con los espectros de todas las estrellas del cielo. Es tentador saltar a la generalización de que todo el universo está construido únicamente de los 90 o 92 tipos de átomos que se encuentran en la tierra, pero en la actualidad no hay justificación para esto. La luz que recibimos del sol y las estrellas proviene solo de las capas más externas de sus superficies, por lo que no transmite ninguna información sobre los tipos de átomos que se encuentran en el interior de las estrellas. De hecho, no tenemos conocimiento de los tipos de átomos que ocurren en el interior de nuestra propia tierra.
La estructura del átomo. Hasta hace muy poco, los átomos se consideraban los ladrillos permanentes con los que se construía todo el universo. Se suponía que todos los cambios del universo equivalían a nada más drástico que un reordenamiento de átomos permanentes e indestructibles; como la caja de ladrillos de un niño, estos construyeron muchos edificios a su vez. La historia de la física del siglo XX es principalmente la historia de la destrucción de este concepto.
Fue hacia fines del siglo pasado cuando Crookes, Lenard y, sobre todo, Sir J. J. Thomson comenzaron a descomponer el átomo. Las estructuras que habían sido consideradas los ladrillos irrompibles del universo durante más de 2000 años, de repente se demostró que eran muy susceptibles a ser rotas en fragmentos. Se alcanzó un hito en 1895, cuando Thomson demostró que estos fragmentos eran idénticos, sin importar de qué tipo de átomo provinieran; tenían el mismo peso y tenían cargas iguales de [p. 107] electricidad. Por esta última propiedad se les llamó «electrones». Sin embargo, el átomo no puede estar formado por electrones y nada más, porque como cada electrón lleva una carga eléctrica negativa, una estructura que consiste en nada más que electrones también llevaría una carga negativa. Dos cargas eléctricas negativas se repelen, al igual que dos cargas positivas, mientras que dos cargas, una de electricidad positiva y otra negativa, se atraen. Esto hace que sea fácil determinar si cualquier cuerpo o estructura lleva una carga eléctrica positiva o negativa, o si no tiene carga alguna. La observación muestra que un átomo completo no lleva carga alguna, de modo que en alguna parte del átomo debe haber una carga eléctrica positiva, de la cantidad justa para neutralizar las cargas negativas combinadas de todos los electrones.
En 1911, los experimentos de Sir Ernest Rutherford y otros revelaron la arquitectura del átomo. Como pronto veremos (p. 112 más abajo), la naturaleza misma proporciona un suministro inagotable de pequeñas partículas cargadas con electricidad positiva y que se mueven a velocidades muy altas, en las partículas α que se desprenden de las sustancias radiactivas. El método de Rutherford fue, en resumen, dispararlas en los átomos y observar el resultado. Y el resultado sorprendente que obtuvo fue que la gran mayoría de estas balas atravesaron el átomo como si simplemente no existiera. Era como dispararle a un fantasma.
Sin embargo, el átomo no era todo fantasmal. Una pequeña fracción, quizás una en 10.000, de las balas se desviaron de sus cursos como si hubieran encontrado algo muy sustancial. Un cálculo matemático mostró que estos obstáculos solo podían ser las cargas positivas faltantes de los átomos.
Un estudio detallado de las trayectorias de estos proyectiles [p. 108] demostró que toda la carga positiva de un átomo debe estar concentrada en un solo espacio muy pequeño, con dimensiones del orden de solo una millonésima de una millonésima de pulgada [2,54 billónesimas de cm]. De esta manera, Rutherford fue llevado a proponer la visión de la estructura atómica que generalmente se asocia con su nombre. Supuso que las propiedades químicas y la naturaleza del átomo residían en un «núcleo» central pesado, pero excesivamente diminuto, que llevaba una carga eléctrica positiva, alrededor del cual describían órbitas varios electrones cargados negativamente. Por supuesto, era necesario suponer que los electrones estaban en movimiento en el átomo, de lo contrario, la atracción de la electricidad positiva por la negativa las atraería inmediatamente hacia el núcleo central, del mismo modo que la atracción gravitatoria haría que la tierra cayera sobre el sol, si no fuera por el movimiento orbital de la primera. En resumen, Rutherford supuso que el átomo estaba construido como el sistema solar, el pesado núcleo central representaba el papel del sol y los electrones representaban el papel de los planetas.
Las velocidades con las que estos electrones vuelan alrededor de sus diminutas órbitas son impresionantes. El electrón promedio gira alrededor de su núcleo varios miles de millones de millones de veces cada segundo, con una velocidad de cientos de millas por segundo [cientos de km/s]. Por lo tanto, la pequeñez de sus órbitas no impide que los electrones se muevan con velocidades orbitales más altas que los planetas, o incluso que las estrellas mismas.
Al despejar un espacio alrededor del núcleo central y evitar así que otros átomos se acerquen demasiado a él, estas órbitas electrónicas dan tamaño al átomo. El volumen del espacio despejado por los electrones es enormemente mayor que el volumen total de los electrones; aproximadamente, la proporción de volúmenes es la del campo de batalla a las balas. El átomo, con un radio de [p. 109] alrededor de 2 x 10-8 cms., tiene alrededor de 100.000 veces el diámetro, y por lo tanto alrededor de mil millones de millones de veces el volumen, de un solo electrón, que tiene un radio de sólo unos 2 x 10-13 cms. El núcleo, aunque generalmente pesa 3000 o 4000 veces más que todos los electrones del átomo juntos, es como mucho comparable en tamaño a un solo electrón y puede ser incluso más pequeño.
Ya hemos comentado el extremo vacío del espacio astronómico. Elija un punto en el espacio al azar, y las probabilidades de que no esté ocupado por una estrella son enormes. Incluso el sistema solar consiste abrumadoramente en espacio vacío; elija un lugar dentro del sistema solar al azar, y todavía hay inmensas probabilidades de que esté ocupado por un planeta o incluso por un cometa, un meteorito o un cuerpo más pequeño. Y ahora vemos que este vacío se extiende también al espacio de la física. Incluso dentro del átomo elegimos un punto al azar, y las probabilidades de que haya algo allí son inmensas; son del orden de al menos millones de millones a uno. Vimos cómo seis motas de polvo dentro de la estación de Waterloo representaban, o más bien sobrerrepresentaban, la medida en que el espacio estaba lleno de estrellas. De la misma manera, unas pocas avispas (seis para el átomo de carbono) que vuelan por la estación de Waterloo representarán hasta qué punto el átomo está lleno de electrones; todo lo demás es vacío. A medida que revisamos toda la estructura del universo, desde las nebulosas gigantes y los vastos espacios interestelares e internebulares hasta la diminuta estructura del átomo, poco más que el espacio vacío pasa ante nuestra mirada mental. Vivimos en un universo de telaraña; el patrón, el plan y el diseño están en abundancia, pero la sustancia sólida es rara.
[p. 110] Números atómicos. El número de electrones que vuelan en órbitas en un átomo se denomina «número atómico» del átomo. Se han encontrado átomos de todos los números atómicos del 1 al 92, excepto dos números faltantes, el 85 y el 87. Como ya se mencionó, es muy probable que estos también existan, y que haya 92 «elementos» cuyos números atómicos ocupen todo el rango de números atómicos del 1 al 92 continuamente.
El átomo de número atómico unidad es, por supuesto, el más simple de todos. Es el átomo de hidrógeno, en el que un electrón solitario gira alrededor de un núcleo cuya carga de electricidad positiva es exactamente igual, aunque de signo opuesto, a la carga del electrón negativo.
Luego viene el átomo de helio de número atómico 2, en el que dos electrones giran alrededor de un núcleo que tiene cuatro veces el peso del núcleo de hidrógeno, aunque lleva sólo el doble de su carga eléctrica. Después viene el átomo de litio de número atómico 3, en el que tres electrones giran alrededor de un núcleo que tiene seis veces el peso del átomo de hidrógeno y tres veces su carga. Y así continúa, hasta llegar al uranio, el más pesado de todos los átomos conocidos en la tierra, que tiene 92 electrones que describen órbitas alrededor de un núcleo de 238 veces el peso del núcleo de hidrógeno.
Mientras todavía estaba ocupada en descomponer el átomo en sus factores componentes, la ciencia física comenzaba a descubrir que los núcleos mismos no eran ni permanentes ni indestructibles. En 1896, Becquerel descubrió que varias sustancias que contienen uranio [p. 111] poseían la notable propiedad, como parecía entonces, de afectar espontáneamente a las placas fotográficas cercanas. Esta observación condujo al descubrimiento de una nueva propiedad de la materia, a saber, la radiactividad. Todos los resultados obtenidos del estudio de la radiactividad en los años siguientes se coordinaron en la hipótesis de la «desintegración espontánea» que Rutherford y Soddy propusieron en 1903. Según esta hipótesis en su forma actual, la radiactividad indica una ruptura espontánea de los núcleos de los átomos de las sustancias radiactivas. Estos átomos están tan lejos de ser permanentes e indestructibles que sus propios núcleos se desmoronan con el mero transcurso del tiempo, de modo que lo que una vez fue el núcleo de un átomo de uranio se transforma, después de un tiempo suficiente, en el núcleo de un átomo de plomo.
El proceso de transformación no es instantáneo; procede gradualmente y por etapas distintas. Durante su progreso, se emiten tres tipos de productos, que se denominan rayos α, rayos β y rayos γ.
Estos fueron originalmente descritos como rayos porque tienen el poder de penetrar a través de cierto espesor de aire, metal u otra sustancia. Su verdadera naturaleza fue descubierta más tarde. Es bien sabido que las fuerzas magnéticas, como por ejemplo las que se dan en el espacio entre los polos de un imán, hacen que una partícula en movimiento cargada de electricidad se desvíe de su curso recto; se desvía en una u otra dirección según esté cargada de electricidad positiva o negativa. Al pasar los diversos rayos emitidos por sustancias radiactivas a través del espacio entre los polos de un imán potente, se encontró que los rayos α consistían en partículas cargadas con electricidad positiva, y los rayos β consistían en partículas cargadas con electricidad negativa [p. 112]. Pero las fuerzas magnéticas más poderosas que pudieron emplearse no lograron causar la más mínima desviación en las trayectorias de los rayos γ, de lo cual se concluyó que los rayos γ no eran partículas materiales en absoluto, o que, si eran, no llevaban cargas eléctricas. Posteriormente se demostró que la primera de estas alternativas era la verdadera.
partículas α. Las partículas cargadas positivamente que constituyen los rayos α se describen generalmente como partículas α. En 1909, Rutherford y Royds permitieron que las partículas α penetraran a través de una fina pared de vidrio de menos de una centésima de milímetro de espesor en una cámara de la que no podían escapar: una especie de ratonera para las partículas α. Descubrieron que mientras el número de partículas α en el recipiente seguía aumentando, se estaba formando una acumulación de helio. De esta manera se estableció que las partículas α cargadas positivamente son simplemente núcleos de átomos de helio.
Estas partículas se mueven a enormes velocidades, que dependen de la naturaleza de la sustancia radiactiva de la que han sido expulsadas. Los más rápidos de todos, los emitidos por Thorium C´, se mueven a una velocidad de 12.800 millas por segundo [20.600 km/s]; incluso los más lentos, los de uranio 1, tienen una velocidad de 8800 millas por segundo [14.162 km/s], que es unas 30.000 veces la velocidad molecular ordinaria en el aire. Las partículas que se mueven a estas velocidades apartan de su camino a todas las moléculas ordinarias; esto explica el gran poder de penetración de los rayos α.
partículas β. Al examinar su movimiento bajo fuerzas magnéticas, se descubrió que los rayos β consisten en electrones cargados negativamente, exactamente similares a los que giran orbitalmente en todos los átomos. Como una partícula α lleva una carga positiva igual en cantidad a la de dos electrones, un átomo que ha expulsado una partícula α queda [p. 113] con carencia de carga positiva, o lo que es lo mismo, con carga negativa, igual a la de dos electrones. En consecuencia, es natural, y de hecho casi inevitable, que la eyección de partículas α se alternen con una eyección de electrones cargados negativamente, de modo que se pueda mantener el equilibrio de electricidad positiva y negativa en el átomo. Las partículas β se mueven a velocidades aún mayores que las partículas α, muchas de las cuales se aproximan a un pequeño porcentaje de la velocidad de la luz (186.000 millas por segundo [299.337 km/s]).
Uno de los dispositivos más hermosos conocidos por la ciencia física, la invención del profesor C. T. R. Wilson, hace posible estudiar los movimientos de las partículas α y β a medida que se abren camino a través de un gas, chocando con sus moléculas en su camino. Una cámara a través de la cual se hace viajar a las partículas se llena con vapor de agua en tal condición que el paso de una partícula cargada eléctricamente deja tras de sí un rastro de condensaciones que se pueden fotografiar. Como ejemplo, la placa XIII muestra una fotografía tomada por el propio profesor Wilson, en la que los rastros de las partículas α y β aparecen en la misma placa. Dado que las partículas α pesan unas 7400 veces más que las partículas β, naturalmente crean más perturbaciones en el gas y, por lo tanto, dejan huellas más anchas y pronunciadas; también siguen un curso comparativamente recto mientras que las partículas más ligeras son desviadas de sus cursos por muchas de las moléculas con las que se encuentran. La placa muestra cuatro huellas de partículas α y una huella de rayos β (mucho más débil). Las proyecciones de aspecto nudoso que pueden verse en una de las pistas de rayos α son de interés; representan las trayectorias cortas de los electrones eliminados de los átomos por el paso de la partícula α[^2].
[p. 114] Rayos γ. Los rayos γ no son partículas materiales en absoluto; resultan ser meramente radiación de un tipo muy especial, que ahora discutiremos.
Mueva la superficie de un estanque con un palo y una serie de ondas comienza desde el palo y viaja, en una serie de círculos en constante expansión, sobre la superficie del estanque. Como el agua resiste el movimiento del palo, tenemos que trabajar para mantener el estanque en estado de agitación. La energía de este trabajo se transforma, al menos en parte, en la energía de las ondas. Podemos ver que las ondas transportan energía con ellas, porque hacen que un corcho flotante o un bote de juguete se eleven contra la atracción gravitacional de la tierra. Así, las ondas proporcionan un mecanismo para distribuir sobre la superficie del estanque la energía que ponemos en el estanque a través de la palanca móvil.
La luz y todas las demás formas de radiación son análogas a las ondas u olas del agua, ya que distribuyen energía desde una fuente central. La radiación del sol distribuye a través del espacio la gran cantidad de energía que se genera en el interior del sol. Apenas sabemos si existe o no un movimiento ondulatorio real en la luz, pero sabemos que tanto la luz como todos los demás tipos de radiación se propagan de tal forma que tienen algunas de las propiedades de una sucesión de ondas.
Hemos visto cómo los diferentes colores de luz que en combinación constituyen la luz del sol pueden separarse pasando la luz a través de un prisma. Un instrumento alternativo, la rejilla de difracción, analiza [p. 115] luz en sus longitudes de onda constituyentes[2], y se encuentra que corresponden a los diferentes colores del arco iris. Esto muestra que diferentes colores de luz representan diferentes longitudes de onda y, al mismo tiempo, proporciona un medio para medir las longitudes de onda reales de la luz de diferentes colores. Estos resultan ser muy diminutos. La luz más roja que podemos ver, que es la de mayor longitud de onda, tiene una longitud de onda de sólo 3/100.000 pulgadas (7,5 x 10-5 cms.); la luz más violeta que podemos ver tiene una longitud de onda de solo la mitad de esta, o 0.000015 pulgadas [0.000038 cm]. La luz de todos los colores viaja con la misma velocidad uniforme de 186.000 millas, o 3 x 1010 centímetros, por segundo. El número de ondas de luz roja que pasan por cualquier punto fijo en un segundo no es, por tanto, inferior a cuatrocientos millones de millones. Esto se llama la «frecuencia» de la luz. La luz violeta tiene la frecuencia aún más alta de ochocientos millones de millones; cuando vemos la luz violeta, ochocientos millones de millones de ondas de luz entran en nuestros ojos cada segundo.
A simple vista, el espectro de la luz solar analizada parece extenderse desde la luz roja en un extremo hasta la luz violeta en el otro, pero estos no son sus verdaderos límites. Si ciertas sales químicas se colocan más allá del extremo violeta del espectro visible, se encuentra que brillan vívidamente, mostrando que incluso aquí se transporta energía, aunque en forma invisible.
Las regiones de radiación invisible se extienden indefinidamente desde ambos extremos del espectro visible. Desde un extremo, el rojo, podemos pasar continuamente a ondas del tipo utilizado para la transmisión inalámbrica, que tienen longitudes de onda del orden de cientos, o incluso [p . 116] miles, de yardas [cientos a miles de metros]. Desde el extremo violeta, pasamos a través de ondas de longitud de onda cada vez más corta, todas las diversas formas de radiación ultravioleta. En longitudes de onda de alrededor de una centésima a una milésima de la longitud de onda de la luz visible, llegamos a los familiares rayos X, que penetran a través de pulgadas [cms] de nuestra carne, de modo que podemos fotografiar los huesos en su interior. Mucho más allá de estos, llegamos al tipo de radiación que constituye los rayos γ, su longitud de onda es del orden de 1/10.000.000.000 de pulgada, o sólo una cienmilésima parte de la longitud de onda de la luz visible. Por lo tanto, los rayos γ pueden considerarse como radiación invisible de longitud de onda extremadamente corta. Discutiremos la función exacta que cumplen más adelante. Por el momento, limitémonos a señalar que en un primer momento cumplían la función sumamente útil de empañar las placas fotográficas de Becquerel, lo que conducía a la detección de la propiedad radiactiva de la materia.
Así vemos que la ruptura de un átomo radiactivo puede compararse con la descarga de un arma; la partícula α es el disparo, las partículas β son el humo y los rayos γ son el destello. El átomo de plomo que finalmente queda es el arma descargada, y el átomo radiactivo original, de uranio o lo que sea, era el arma cargada. Y la peculiaridad especial de las armas radiactivas es que se disparan espontáneamente y por sí solas. Todos los intentos de apretar el gatillo han fracasado hasta ahora, o al menos han dado lugar a resultados no concluyentes; solo podemos esperar, y se encontrará que el arma se dispara sola a tiempo.
[p. 117]
Con las excepciones sin importancia del potasio y el rubidio (de números atómicos 19 y 37), la propiedad de la radiactividad se produce sólo en los átomos más complejos y masivos, y se limita a los de números atómicos superiores a 83. Sin embargo, aunque los átomos más ligeros no están sujetos a la desintegración espontánea de la misma manera que los átomos radiactivos pesados, sus núcleos son de estructura compuesta y pueden romperse por medios artificiales. En 1920, Rutherford, utilizando átomos radiactivos como armas de fuego, disparó partículas α a átomos ligeros y descubrió que los impactos directos rompían sus núcleos. Sin embargo, se ha encontrado que hay una diferencia significativa entre la desintegración espontánea de los átomos radiactivos pesados y la desintegración artificial de los átomos ligeros; en el primer caso, además de los omnipresentes rayos β y rayos γ, sólo se expulsan partículas α, mientras que en el último caso no se expulsan partículas α en absoluto, sino partículas de sólo alrededor de una cuarta parte de su peso, que resultaron ser idénticas a los núcleos de los átomos de hidrógeno.
Estos eventos sensacionales en el inframundo atómico pueden ser fotografiados por el método de condensación del profesor C. T. R. Wilson ya explicado. La Lámina XIV muestra dos colisiones de una partícula α con un átomo de nitrógeno fotografiadas por el Sr. P. M. S. Blackett. Las líneas rectas son simplemente las huellas bastante tranquilas de partículas α ordinarias similares a las que ya se muestran en la Lámina XIII. Pero una pista de partículas α en cada fotografía se bifurca repentinamente, de modo que la figura completa tiene forma de Y.
Hay poco lugar para la duda de que en la fig. 1 la bifurcación ocurre porque la partícula α ha chocado con [p. 118] un átomo de nitrógeno; el tallo de la Y es la trayectoria de la partícula α antes de la colisión; las dos ramas superiores son las huellas de la partícula α y el átomo de nitrógeno después de la colisión, este último ahora moviéndose a enorme velocidad y chocando contra todo lo que encuentra a su paso. Tomando fotografías simultáneas en dos direcciones en ángulos rectos, como se muestra en la placa, el Sr. Blackett pudo reconstruir toda la colisión y se encontró que los ángulos coincidían exactamente con los que la teoría dinámica requeriría en esta interpretación de la fotografía.
La ocurrencia fotografiada en la fig. 2 es de un tipo diferente al que se ve en la fig. 1, porque los ángulos no concuerdan con los que requeriría la teoría dinámica si las ramas superiores de la Y fueran las huellas de las partículas α y el átomo de nitrógeno como en la fig. 1. El tallo de la Y sigue siendo una pista ordinaria de una partícula α, pero la rama superior larga y tenue es la pista de una partícula más pequeña que una partícula α, a saber, una partícula de un cuarto de peso expulsada del núcleo, mientras que la rama más corta y más clara es la del átomo de nitrógeno que se mueve junto con la partícula α, que ha capturado. Sería demasiado espacio para describir en su totalidad el hermoso método por el cual Blackett ha establecido esta interpretación de sus fotografías, pero hay poco lugar para la duda de que en la Fig. 2 ha conseguido fotografiar la ruptura del núcleo de un átomo de nitrógeno.
Isótopos. Dos átomos tienen las mismas propiedades químicas si las cargas de electricidad positiva transportadas por sus núcleos son las mismas. La cantidad de esta carga fija el número de electrones que pueden girar alrededor del núcleo, siendo este número exactamente el necesario para neutralizar el campo eléctrico de [p. 119] el núcleo, y esto a su vez fija el número atómico del elemento. Pero el Dr. Aston ha demostrado que los átomos del mismo elemento químico, digamos neón o cloro, pueden tener núcleos de diferente peso. Las diversas formas que pueden asumir los átomos de un mismo elemento químico se conocen como isótopos, distinguiéndose naturalmente por sus diferentes pesos. Aston hizo además el descubrimiento muy significativo de que los pesos de todos los átomos son, a una aproximación muy cercana, múltiplos de un solo peso definido. Este peso unitario es aproximadamente igual al peso del átomo de hidrógeno, pero es más cercano a un dieciseisavo del peso del átomo de oxígeno. El peso de cualquier tipo de átomo, medido en términos de esta unidad, se denomina «peso atómico» del átomo.
Protones y electrones. Junto con los resultados de la desintegración artificial de los núcleos atómicos de Rutherford, los resultados de Aston han llevado a la aceptación general de la hipótesis de que todo el universo está formado por solo dos tipos de ladrillos fundamentales, a saber, los electrones y los protones. Cada protón lleva una carga eléctrica positiva exactamente igual en cantidad a la carga negativa que lleva un electrón, pero tiene unas 1840 veces el peso del electrón. Se supone que los protones son idénticos al núcleo del átomo de hidrógeno, siendo todos los demás núcleos estructuras compuestas en las que tanto los protones como los electrones están muy juntos. Por ejemplo, el núcleo del átomo de helio, o partícula α, consta de cuatro protones y dos electrones, lo que le da aproximadamente cuatro veces el peso del átomo de hidrógeno.
Sin embargo, esta no es toda la historia. Si lo fuera, cada átomo completo consistiría en un cierto número [p. 120] N de protones, junto con los electrones suficientes, a saber, N, para neutralizar las cargas eléctricas de los N protones, de modo que sus componentes serían exactamente los mismos que los de N átomos de hidrógeno. Así, el peso de cada átomo sería un múltiplo exacto del peso de un átomo de hidrógeno. El experimento muestra que este no es el caso.
Energía electromagnética. Para llegar a toda la verdad, tenemos que reconocer que, además de contener electrones y protones materiales, el átomo contiene un tercer ingrediente que podemos describir como energía electromagnética. Podemos pensar en esto, aunque con algo menos que precisión científica absoluta, como radiación embotellada.
Es un lugar común de la teoría electromagnética moderna que la radiación de todo tipo lleva consigo peso, peso que es en todos los sentidos tan real como el peso de una tonelada de carbón. Un rayo de luz impacta sobre cualquier superficie sobre la que cae, como lo hace un chorro de agua, o una ráfaga de viento, o la caída de una tonelada de carbón; con una luz suficientemente intensa se podía derribar a un hombre con la misma seguridad que con el chorro de agua de una manguera contra incendios. Esto no es una mera predicción teórica. La presión de la luz sobre una superficie ha sido detectada y medida por experimentación directa. Los experimentos son extraordinariamente difíciles porque, a juzgar por todos los estándares ordinarios, el peso que lleva la radiación es extremadamente pequeño; toda la radiación emitida por un reflector de 50 caballos de fuerza funcionando continuamente durante un siglo pesa solo alrededor de una vigésima parte de una onza [1,4 g].
De ello se deduce que cualquier sustancia que emita radiación debe al mismo tiempo perder peso. En particular, la desintegración de cualquier [p. 121] sustancia debe implicar una disminución de peso, ya que va acompañada de la emisión de radiación en forma de rayos γ. El destino final de una onza de uranio puede expresarse mediante la ecuación:
El plomo y el helio juntos contienen tantos electrones y tantos protones como la onza original de uranio, pero su peso combinado es inferior al peso del uranio original en aproximadamente una parte en 4000. Donde originalmente existían 4000 onzas de materia , ahora solo quedan 3999; la onza que falta se ha disparado en forma de radiación.
Esto aclara que no debemos esperar que los pesos de los diversos átomos sean múltiplos exactos del peso del átomo de hidrógeno; tal expectativa ignoraría el peso de la energía electromagnética embotellada que es capaz de liberarse y salir al espacio en forma de radiación a medida que el átomo cambia su composición. El peso de esta energía es relativamente pequeño, por lo que se puede esperar que los pesos de los átomos sean múltiplos aproximadamente enteros del del átomo de hidrógeno, y esta expectativa se confirma, pero no será tan exactamente. El peso exacto de nuestro edificio atómico no es simplemente el peso total de todos sus ladrillos; algo debe agregarse por el peso del mortero, la energía electromagnética, que mantiene unidos los ladrillos.
Así, el átomo normal consta de protones, electrones y energía, cada uno de los cuales contribuye en algo a su peso. Cuando el átomo se reorganiza, ya sea espontáneamente o bajo bombardeo, los protones y [p. 122] los electrones pueden ser expulsados en forma de partículas materiales (rayos α y β) y la energía también puede liberarse en forma de radiación. Esta radiación puede tomar la forma de rayos γ o, como veremos en breve, de otras formas de radiación visible e invisible. El peso final del átomo se obtendrá deduciendo de su peso original no sólo el peso de todos los electrones y protones expulsados, sino también el peso de toda la energía que ha sido liberada como radiación.
La serie de conceptos a los que ahora nos acercamos son difíciles de captar y aún más difíciles de explicar, en gran medida, sin duda, porque nuestra mente no recibe ayuda de nuestra experiencia cotidiana de la naturaleza[3]. Se hace necesario hablar principalmente en términos de analogías, parábolas y modelos que no pueden pretender representar la realidad última; de hecho, es temerario aventurar una conjetura incluso en cuanto a la dirección en la que se encuentra la realidad última.
Las leyes de la electricidad que estuvieron en boga hasta finales del siglo XIX (las famosas leyes de Maxwell y Faraday) requerían que la energía de un átomo decreciera continuamente, a través de la dispersión del átomo de energía en forma de radiación, y teniendo cada vez menos para sí mismo. Estas mismas leyes predijeron que toda la energía liberada en el espacio se transformaría rápidamente en radiación de longitud de onda casi infinitesimal. Sin embargo, estas cosas simplemente no sucedieron, por lo que es obvio que [p. 123] había que renunciar a las leyes electrodinámicas vigentes.
Radiación de cavidad. Un caso crucial de falla fue proporcionado por lo que se conoce como «radiación de cavidad». Un cuerpo con una cavidad en su interior se calienta hasta la incandescencia; no se toma nota de la luz y el calor emitidos por su superficie exterior, pero la luz aprisionada en la cavidad interna se deja salir a través de una pequeña ventana y se analiza en sus colores constituyentes mediante un espectroscopio o rejilla de difracción. Es esta radiación la que se conoce como «radiación de cavidad». Representa la forma más completa de radiación posible, una radiación a la que no le falta ningún color y en la que cada color figura con toda su fuerza. Ninguna sustancia conocida emite jamás una radiación tan completa desde su superficie, aunque muchas se aproximan a hacerlo. Hablamos de tales cuerpos como «radiadores llenos».
Las leyes del electromagnetismo del siglo XIX predijeron que la totalidad de la radiación emitida por un radiador lleno o por una cavidad debería encontrarse en o más allá del extremo violeta del espectro, independientemente de la temperatura precisa a la que se había calentado el cuerpo. En realidad, la radiación suele encontrarse apilada exactamente en el extremo opuesto del espectro, y en ningún caso se ajusta nunca a las predicciones de las leyes del siglo XIX, ni siquiera empieza a pensar en hacerlo.
En el año 1900, el profesor Planck de Berlín descubrió experimentalmente la ley por la cual la «radiación de cavidad» se distribuye entre los diferentes colores del espectro. Mostró además cómo su ley recién descubierta podía deducirse teóricamente de un sistema de leyes electromagnéticas que diferían sensacionalmente de las que entonces estaban en boga.
[p. 124] Planck imaginó que todo tipo de radiación sería emitida por sistemas de vibradores que emitían luz cuando se excitaban, al igual que los diapasones emiten sonido cuando son golpeados. Las viejas leyes electrodinámicas predecían que cada vibración se detendría gradualmente y luego se detendría, como lo hacen las vibraciones de un diapasón, hasta que el vibrador se excitara de alguna manera nuevamente. Rechazando todo esto, Planck supuso que un vibrador podía cambiar su energía por sacudidas repentinas, y de ninguna otra manera; podía tener uno, dos, tres, cuatro o cualquier otro número entero de unidades de energía, pero ningún número fraccionario intermedio, de modo que los cambios graduales de energía se hacían imposibles. El vibrador, por así decirlo, guardaba no poco cambio, y solo podía pagar su energía con un chelín a la vez hasta que no le quedara nada. No sólo eso, sino que se negó a recibir cambio pequeño, aunque estaba dispuesto a aceptar chelines completos. Se descubrió que este concepto, sensacional, revolucionario e incluso ridículo, como muchos pensaron en ese momento, conducía exactamente a la distribución de colores realmente observada en la radiación de cavidad.
En 1917, Einstein expresó el concepto en la forma más precisa que prevalece ahora. Según una teoría propuesta previamente por el profesor Niels Bohr de Copenhague, una estructura atómica o molecular no cambia su configuración ni disipa su energía en etapas graduales. La gradualidad es expulsada de la física y la discontinuidad ocupa su lugar. Una estructura atómica tiene un número de posibles estados o configuraciones que son enteramente distintas y separadas unas de otras, así como un peso colocado en una escalera tiene sólo un número posible de posiciones; puede ser 3 escalones arriba, o 4 o 5, pero no puede ser 3
Esta acción selectiva del átomo sobre la radiación se pone de manifiesto de diversas formas; quizás se muestra más simplemente en los espectros del sol y las estrellas. Líneas oscuras similares a las que Fraunhofer observó en el espectro solar se observan en los espectros de prácticamente todas las estrellas (ver Lámina VIII, p. 51), y ahora podemos entender por qué debe ser así. Luz de todas las longitudes de onda posibles sale del interior caliente [p. 126] de una estrella y bombardea los átomos que forman su atmósfera. Cada átomo absorbe la radiación que tiene precisamente la longitud de onda correcta para él, pero no tiene interacción de ningún tipo con el resto, de modo que la radiación que finalmente emite la estrella es deficiente en las longitudes de onda particulares que se ajustan a los átomos. Así, la estrella muestra un espectro de absorción de líneas finas. Las posiciones de estas líneas en el espectro muestran qué tipos de radiación han tragado los átomos estelares, y así nos permiten identificar los átomos a partir de nuestro conocimiento de laboratorio de los gustos de diferentes tipos de átomos para la radiación. Pero, ¿qué decide en última instancia qué tipos de radiación tragará un átomo y cuáles rechazará?
Planck ya había supuesto que la radiación de cada longitud de onda tiene asociada una cierta cantidad de energía, llamada «cuántica», que depende de la longitud de onda y de nada más. Se supone que el cuanto es proporcional a la «frecuencia» (p. 115), o número de vibraciones de la radiación por segundo[4], y por lo tanto es inversamente proporcional a la longitud de onda de la radiación: cuanto más corta es la longitud de onda, mayor es la energía del cuanto, y viceversa. La luz roja tiene cuantos débiles, la luz violeta tiene cuantos energéticos, y así sucesivamente.
Einstein ahora supone que la radiación de un tipo dado puede efectuar un cambio atómico o molecular, solo si la energía necesaria para el cambio es exactamente igual a la de un solo cuanto de la radiación. Esto se conoce comúnmente como la ley de Einstein; determina el [p. 127] tipo preciso de radiación necesaria para hacer funcionar cualquier mecanismo atómico o molecular de centavo en la ranura[5].
Notamos que el trabajo que exige un cuanto poderoso no puede ser realizado por dos, o de hecho por cualquier número cualquiera, de cuantos débiles. Una pequeña cantidad de luz violeta (alta frecuencia) puede lograr lo que ninguna cantidad de luz roja (baja frecuencia) puede lograr: una circunstancia con la que todos los fotógrafos están dolorosamente familiarizados; podemos admitir tanta luz roja como queramos sin causar ningún daño, pero incluso el más mínimo destello de luz violeta estropea nuestras placas.
La ley prohíbe matar dos pájaros de un tiro, así como matar un pájaro de dos tiros; todo el cuanto se utiliza para efectuar el cambio, de modo que no queda energía de este cuanto en particular para contribuir a ningún otro cambio. Este aspecto del asunto lo ilustra la ley fotoquímica de Einstein: «en cualquier reacción química que se produce por la incidencia de la luz, el número de moléculas que se ven afectadas es igual al número de cuantos de luz que se absorben». Aquellos que manejan máquinas tragamonedas de un centavo están familiarizados con una ley similar: «el número de artículos vendidos es exactamente igual al número de monedas en la máquina».
Si pensamos en la energía en términos de su capacidad para causar daño, vemos que la radiación de longitud de onda corta puede causar más destrucción en las estructuras atómicas que la radiación de longitud de onda larga. La radiación de una longitud de onda suficientemente corta no solo puede reorganizar [p. 128] moléculas o átomos; puede romper cualquier átomo sobre el que caiga, disparando uno de sus electrones, dando lugar a lo que se conoce como acción fotoeléctrica. Nuevamente, hay un límite definido de frecuencia, de modo que la luz cuya frecuencia está por debajo de este límite no produce ningún efecto, por intenso que sea; mientras que tan pronto como pasamos a frecuencias por encima de este límite, la luz, incluso de la intensidad más débil, comienza inmediatamente la acción fotoeléctrica. Nuevamente, la absorción de un cuanto rompe solo un átomo y, además, expulsa solo un electrón del átomo. Si la radiación tiene una frecuencia por encima de este límite, de modo que su cuanto tiene más energía que el mínimo necesario para quitar un solo electrón del átomo, todo el cuanto todavía se absorbe, y el exceso de energía ahora se usa para dotar de movimiento al electrón expulsado.
Órbitas de electrones. Estos conceptos se basan en la suposición de Bohr de que solo un número limitado de órbitas están abiertas para los electrones en un átomo, todas las demás están prohibidas por razones que aún no entendemos completamente, y que un electrón es libre de moverse de una órbita permitida a otra bajo el estímulo de la radiación. El propio Bohr investigó la forma en que se organizan las diversas órbitas permitidas. Las investigaciones modernas indican la necesidad de una buena revisión de sus conceptos simples, pero los discutiremos con cierto detalle, en parte porque la imagen del átomo de Bohr todavía proporciona el mejor modelo mecánico funcional que tenemos, y en parte porque la comprensión de su teoría es absolutamente esencial para la comprensión de las teorías mucho más complejas que están comenzando a reemplazarla.
El átomo de hidrógeno, como ya hemos visto, se compone de [p. 129] de un solo protón como núcleo central, con un solo electrón girando a su alrededor. El núcleo, con unas 1840 veces el peso del electrón, permanece prácticamente en reposo sin ser agitado por el movimiento de este último, del mismo modo que el sol permanece prácticamente inalterado por el movimiento de la tierra a su alrededor. El núcleo y el electrón llevan cargas de electricidad positiva y negativa y, por lo tanto, se atraen entre sí; por eso el electrón describe una órbita en lugar de volar en línea recta, de nuevo como la tierra y el sol. Además, la atracción entre cargas eléctricas de signo opuesto, positivo y negativo, sigue, por cierto, precisamente la misma ley que la gravitación, la atracción que cae como el inverso del cuadrado de la distancia entre las dos cargas. Así, el sistema núcleo-electrón es similar en todos los aspectos a un sistema sol-planeta, y las órbitas que un electrón puede describir alrededor de un núcleo central son exactamente idénticas a las que un planeta puede describir alrededor de un sol central; consisten en un sistema de elipses, cada una de las cuales tiene el núcleo en un foco (p. 46).
Sin embargo, los conceptos generales de la dinámica cuántica prohíben que el electrón se mueva indiscriminadamente en todas estas órbitas. Según Bohr, el electrón del átomo de hidrógeno puede moverse en un cierto número de órbitas circulares cuyos diámetros son proporcionales a los cuadrados de los números naturales 1, 4, 9, 16, 25, … ; también puede moverse en una serie de órbitas elípticas cuyos diámetros mayores son respectivamente iguales a los diámetros de las posibles órbitas circulares, aunque estas órbitas elípticas están aún más limitadas por la condición de que sus excentricidades deben tener ciertos valores definidos. Todas las demás órbitas están de alguna manera prohibidas.
Las órbitas más pequeñas que el electrón puede describir [p. 130] en el átomo de hidrógeno se muestran en la fig. 10. La órbita más pequeña de todas, de diámetro 1, está marcada como l1; más allá vienen dos órbitas de diámetro 4 marcadas 21, 22; luego tres órbitas de diámetro 9 marcadas 31, 32, 33; y cuatro órbitas de diámetro 16 marcadas 41, 42, 43, 44. El diagrama se detiene aquí por falta de espacio, pero las órbitas disponibles continúan indefinidamente. Incluso en condiciones de laboratorio, los electrones pueden moverse en órbitas de cien veces el diámetro de la marcada 11. Bajo las condiciones más enrarecidas de las atmósferas estelares, el átomo de hidrógeno puede hincharse a dimensiones aún mayores, y los espectros estelares proporcionan evidencia de órbitas que tienen más de mil veces las dimensiones de la órbita l1. Tal órbita estaría representada en la fig. 10 por un círculo de cuatro yardas de diámetro.
Todas las órbitas, ya sean elípticas o circulares, que tengan [p. 131] del mismo diámetro, también tienen la misma energía, pero la energía cambia cuando un electrón cruza de cualquier órbita a otra de diferente diámetro. Así, hasta cierto punto limitado, el átomo constituye una reserva de energía. Sus cambios de energía se calculan fácilmente; por ejemplo, las dos órbitas de diámetros más pequeños en el átomo de hidrógeno difieren en energía en 16 x 10-12 ergs. Si vertemos radiación de la longitud de onda adecuada sobre un átomo en el que el electrón describe la órbita más pequeña de todas, cruza a la siguiente órbita, absorbiendo 16 x 10-12 ergs de energía en el proceso, y convirtiéndose así temporalmente en un depósito de energía que contiene 16 x 10-12 ergs.
Si conocemos todas las órbitas posibles para un átomo de cualquier tipo, es fácil calcular los cambios de energía involucrados en las diversas transiciones entre ellos. Como cada transición absorbe o libera exactamente un cuanto de energía, podemos deducir inmediatamente las frecuencias de la luz emitida o absorbida en estas transiciones. En resumen, dada la disposición de las órbitas atómicas, podemos calcular el espectro del átomo. En la práctica, el problema, por supuesto, toma la forma inversa: dado el espectro, encontrar la estructura del átomo que lo emite. El modelo de Bohr del átomo de hidrógeno es un buen modelo al menos hasta este punto: que el espectro que emitiría reproduce el espectro del hidrógeno casi exactamente. Sin embargo, el acuerdo no es del todo perfecto, y ahora se acepta generalmente que el esquema de Bohr de órbitas es inadecuado para dar cuenta de los espectros reales. Continuamos discutiendo el esquema de Bohr, no porque el átomo esté realmente construido [p. 13] de esa manera, sino porque proporciona un modelo de trabajo lo suficientemente bueno para nuestro propósito actual.
Una característica esencial, aunque a primera vista un tanto inesperada, de toda la teoría es que incluso si el átomo de hidrógeno cargado con sus 16 x 10-12 ergs de energía se deja completamente intacto, el electrón debe, después de cierto lapso de tiempo, regresar espontáneamente a su órbita más pequeña original, expulsando sus 16 x 10-12 ergs de energía en forma de radiación al hacerlo. Einstein demostró que, si esto no fuera así, entonces la bien establecida ley de «radiación de cavidad» de Planck no podría ser cierta. Así, una colección de átomos de hidrógeno en la que los electrones describen órbitas mayores que la órbita más pequeña posible es similar a una colección de uranio u otros átomos radiactivos, en que los átomos vuelven espontáneamente a sus estados de menor energía como resultado meramente del paso del tiempo.
Las órbitas de los electrones en los átomos más complicados tienen la misma disposición general que en el átomo de hidrógeno, pero son de tamaño diferente. En el átomo de hidrógeno, el electrón cae normalmente, después de un tiempo suficiente, a la órbita de menor energía y permanece allí. Podría pensarse por analogía que en átomos más complicados en los que varios electrones describen órbitas, todos los electrones caerían con el tiempo en la órbita de energía más baja y permanecerían allí. Tal no resulta ser el caso. Nunca hay espacio para más de un electrón en la misma órbita. Este es un aspecto especial de un principio general que parece dominar toda la física. Tiene un nombre, «el principio de exclusión», pero esto es todo por el momento; apenas hemos comenzado a comprenderlo. En otro de sus aspectos especiales, se vuelve idéntico a la vieja y familiar piedra angular de la ciencia que afirma que dos piezas diferentes de [p. 133] materia no puede ocupar el mismo espacio al mismo tiempo. Sin comprender el principio subyacente, podemos aceptar el hecho de que dos electrones no solo no pueden ocupar el mismo espacio, sino que ni siquiera pueden ocupar la misma órbita. Es como si de alguna manera el electrón se extendiera hasta ocupar toda su órbita, sin dejar lugar a ningún otro. Sin duda, esto no debe aceptarse como una imagen literal de las cosas y, sin embargo, no parece improbable que las órbitas de energía más baja en el átomo de hidrógeno sean órbitas posibles solo porque el electrón puede llenarlas por completo, y que las órbitas adyacentes son imposibles porque el electrón las llenaría ¾ o 1½ varias veces, y de manera similar para átomos más complicados. A este respecto, quizá sea significativo que ningún fenómeno físico conocido por sí solo permita decir que, en un instante dado, un electrón se encuentra en tal o cual punto de una órbita de energía mínima; tal afirmación parece carecer por completo de sentido, y la condición de un átomo aparentemente se especifica con toda la precisión posible al decir que en un instante dado un electrón se encuentra en una órbita tal, como lo estaría, por ejemplo, si el electrón se hubiera dispersado en un anillo. No podemos decir lo mismo de otras órbitas. A medida que pasamos a órbitas de mayor energía y, por lo tanto, de mayor diámetro, la indeterminación asume gradualmente una forma diferente y finalmente se vuelve de poca importancia. Cualquiera que sea la forma que pueda asumir el electrón mientras describe una pequeña órbita cerca del núcleo, cuando describe una órbita muy grande lejos, se ha convertido en una simple partícula de material cargada de electricidad.
Por lo tanto, cualquiera que sea la razón, los electrones que describen órbitas en el mismo átomo deben estar todos en órbitas diferentes. Los electrones en sus órbitas son como [p. 134] hombres en una escalera; así como dos hombres no pueden estar en el mismo peldaño, tampoco dos electrones pueden seguirse en la misma órbita. El átomo de neón, por ejemplo, con 10 electrones, está en su estado normal de energía más baja cuando cada uno de sus 10 electrones ocupa una de las 10 órbitas cuya energía es más baja. Por razones que la teoría cuántica finalmente ha logrado dilucidar, hay, en cada átomo, dos órbitas en las que la energía es igual y menor que en cualquier otra órbita. Después de esto vienen ocho órbitas de energía igual pero sustancialmente mayor, luego 18 órbitas de energía igual pero aún mayor, y así sucesivamente. Como los electrones en cada uno de estos diversos grupos de órbitas tienen todos la misma energía, se habla comúnmente de ellos, en una fraseología gráfica pero engañosa, como anillos de electrones. Se denominan anillo K, anillo L, anillo M, etc. El anillo K, que es el más cercano al núcleo, sólo tiene espacio para dos electrones. Cualquier otro electrón es empujado hacia el anillo L, que tiene espacio para ocho electrones, todos describen órbitas que son diferentes pero de igual energía. Si aún quedan más electrones por acomodar, deben ir al anillo M y así sucesivamente.
En sus estados normales, el átomo de hidrógeno tiene un electrón en su anillo K, mientras que el átomo de helio tiene dos, estando desocupados los anillos L, M y superiores. El átomo de mayor complejidad, el átomo de litio, tiene tres electrones, y como solo dos pueden acomodarse en su anillo K, uno tiene que vagar por los espacios exteriores del anillo L. En el berilio con cuatro electrones, dos son expulsados hacia el anillo L. Y así continúa, hasta que llegamos al neón con 10 electrones, momento en el cual el anillo L y el anillo K interno están llenos. En el siguiente átomo, el sodio, uno de los 11 electrones es expulsado hacia el anillo M aún más remoto, y así sucesivamente. [p. 135] Siempre que los electrones no estén siendo excitados por radiación u otro estímulo, cada átomo se hunde en el tiempo hasta un estado en el que sus electrones van ocupando sus órbitas de menor energía, uno en cada uno.
En lo que respecta a nuestra experiencia, un átomo, tan pronto como alcanza este estado, se convierte en una verdadera máquina de movimiento perpetuo, los electrones continúan moviéndose en sus órbitas (al menos según la teoría de Bohr) sin que nada de la energía de su movimiento se pierda, disipado, ya sea en forma de radiación o de otra manera. Parece asombroso y completamente incomprensible que un átomo en tal estado no sea capaz de ceder aún más su energía, pero, según nuestra experiencia, no es posible. Y esta propiedad, por poco que la entendamos, es, en última instancia, responsable de mantener el universo en existencia. Si no interviniera ninguna restricción de este tipo, toda la energía material del universo desaparecería en forma de radiación en unas pocas milmillonésimas de segundo. Si el átomo de hidrógeno normal fuera capaz de emitir radiación en la forma exigida por las leyes de la física del siglo XIX, como consecuencia directa de esta emisión de radiación, comenzaría a encogerse a razón de más de un metro por segundo, el electrón cayendo continuamente a órbitas de menor y menor energía. Después de aproximadamente una mil millonésima parte de segundo, el núcleo y el electrón chocarían entre sí, y el átomo entero probablemente desaparecería en un destello de radiación. Al prohibir cualquier emisión de radiación excepto por cuantos completos, y al prohibir cualquier emisión cuando no hay cuantos disponibles para la disipación, la teoría cuántica tiene éxito en mantener la existencia del universo como un negocio en marcha.
Es difícil formar incluso la más remota concepción de [p. 136] las realidades que subyacen a todos estos fenómenos. La rama reciente de la física conocida como “mecánica ondulatoria” está actualmente buscando a tientas una comprensión, pero hasta ahora el progreso ha sido en la dirección de coordinar los fenómenos observados más que en llegar a las realidades. De hecho, se puede dudar de que alguna vez comprendamos correctamente las realidades involucradas en última instancia; bien pueden ser tan fundamentales como para estar más allá del alcance de la mente humana.
Es precisamente por esta razón que la física teórica moderna es tan difícil de explicar y tan difícil de entender. Es fácil explicar el movimiento de la tierra alrededor del sol en el sistema solar. Vemos el sol en el cielo; sentimos la tierra bajo nuestros pies, y el concepto de movimiento nos resulta familiar por la experiencia cotidiana. ¡Qué diferente cuando tratamos de explicar el movimiento análogo del electrón alrededor del protón en el átomo de hidrógeno! Ni usted ni yo tenemos ninguna experiencia directa de electrones o protones, y nadie tiene hasta ahora la menor idea de cómo son realmente. Así que acordamos hacer una especie de modelo en el que el electrón y el protón estén representados por las cosas más simples que conocemos, pequeñas esferas duras. El modelo funciona bien durante un tiempo y luego, de repente, se rompe en nuestras manos. A la nueva luz de la mecánica ondulatoria, la esfera dura se ve irremediablemente inadecuada para representar al electrón. Una esfera dura tiene siempre una posición definida en el espacio; el electrón aparentemente no lo ha hecho. Una esfera dura ocupa una cantidad muy definida de espacio, un electrón; bueno, probablemente no tiene sentido discutir cuánto espacio ocupa un electrón como discutir cuánto espacio ocupa un miedo, una ansiedad o una incertidumbre, pero si nos vemos obligados a decir cuánto espacio ocupa un electrón, quizás la mejor [p. 137] respuesta es que ocupa todo el espacio. Una esfera dura se mueve de un punto al siguiente; nuestro electrón modelo, saltando de órbita en órbita en el átomo de hidrógeno modelo ciertamente no se comporta como ninguna esfera dura de nuestra experiencia de vigilia, y el electrón real, si existe algo así como un electrón real en un átomo, probablemente aún menos. Sin embargo, como nuestras mentes hasta ahora no han podido concebir una imagen mejor del átomo que este modelo muy imperfecto, solo podemos proceder describiendo los fenómenos en términos de él.
Cuanto más compacta es una estructura eléctrica, mayor es la cantidad de energía necesaria para perturbarla; y como esta energía debe suministrarse en forma de un solo cuanto, mayor debe ser la energía del cuanto y, por lo tanto, más corta la longitud de onda de la radiación. Una estructura muy compacta solo puede ser perturbada por radiación de longitud de onda muy corta.
Un barco que se dirige a un mar embravecido corre el mayor riesgo de daño, y sus pasajeros el mayor riesgo de incomodidad, cuando su eslora es aproximadamente igual a la longitud de las olas. Las olas cortas perturban a un barco corto y las olas largas a un barco largo, pero un oleaje largo no daña a ninguno de los dos. Pero esto no proporciona ninguna analogía real con los efectos de la radiación, ya que la longitud de onda de la radiación que rompe una estructura eléctrica es cientos de veces el tamaño de la estructura. La analogía náutica con tal radiación es un oleaje muy largo. Como guía de trabajo aproximada, podemos decir que una estructura eléctrica solo se verá perturbada por radiación cuya longitud de onda sea aproximadamente igual a 860 veces las dimensiones de la estructura, y solo se romperá por radiación cuya onda [p. 138] la longitud está por debajo de este límite[^7]. En resumen, la razón por la cual la luz azul afecta las placas fotográficas, mientras que la luz roja no, es que la longitud de onda de la luz azul es menor y la de la luz roja es mayor que 860 veces el diámetro de la molécula de bromuro de plata; debemos estar por debajo del «límite de 860» antes de que algo comience a suceder.
Cuando un átomo descarga su reserva de energía almacenada, la luz que emite tiene necesariamente la misma longitud de onda que la luz que absorbió al almacenar originalmente esta energía; siendo iguales los dos cuantos de energía, sus longitudes de onda son las mismas. De ello se deduce que la luz emitida por cualquier estructura eléctrica también tendrá una longitud de onda de unas 860 veces las dimensiones de la estructura. La luz visible ordinaria es emitida principalmente por átomos, por lo que tiene una longitud de onda igual a unos 860 diámetros atómicos. De hecho, es precisamente porque tiene esta longitud de onda que la luz actúa sobre los átomos de nuestra retina, y así es visible.
La radiación de esta longitud de onda perturba sólo los electrones más externos de un átomo, pero la radiación de longitud de onda mucho más corta puede tener efectos mucho más devastadores; la radiación X, por ejemplo, puede romper los anillos interiores de electrones mucho más compactos, el anillo K, el anillo L, etc., de la estructura atómica. Radiación [p. 139] de longitud de onda aún más corta puede incluso perturbar los protones y electrones del núcleo. Porque los núcleos, como los átomos mismos, son estructuras de cargas eléctricas positivas y negativas, y así deben comportarse de manera similar con respecto a la radiación que cae sobre ellos, excepto por la gran diferencia en la longitud de onda de la radiación. Ellis y otros han descubierto que la radiación γ emitida durante la desintegración de los átomos del elemento radiactivo radio-B tiene longitudes de onda de 3.52, 4.20, 4.80, 5.13 y 23 x 10-10 cms. Estas longitudes de onda son sólo alrededor de una cienmilésima parte de las de la luz visible, siendo la razón que el núcleo atómico tiene sólo alrededor de una cienmilésima parte de las dimensiones del átomo completo. La radiación de tales longitudes de onda debería ser tan efectiva para reorganizar el núcleo de radio-B como la de una longitud de onda 100.000 veces mayor es efectiva para reorganizar el átomo de hidrógeno.
Dado que la longitud de onda de la radiación absorbida o emitida por un átomo es inversamente proporcional al cuanto de energía, el cuanto necesario para «trabajar» el núcleo atómico debe tener unas 100.000 veces la energía necesaria para «trabajar» el átomo. Si el átomo de hidrógeno es una máquina tragamonedas de un centavo, nada menos que billetes de quinientas libras harán funcionar los núcleos de los átomos radiactivos.
Los núcleos radiactivos, como los de nitrógeno y oxígeno, probablemente podrían romperse mediante un bombardeo suficientemente intenso, aunque la evidencia experimental sobre este punto no es muy definitiva. Si es así, cada partícula bombardeadora tendría que aportar al ataque una energía de movimiento igual al menos a la de un cuanto de la radiación en cuestión, lo que requiere que se mueva a una velocidad enormemente alta. La materia a [p. 140] temperaturas suficientemente altas contiene un suministro abundante tanto de cuantos de alta energía como de partículas que se mueven a altas velocidades.
Temperatura-radiación. Hablamos en la vida ordinaria de calor rojo o calor blanco, es decir, el calor al que debe elevarse una sustancia para emitir luz roja o blanca respectivamente. Se dice que el filamento de una lámpara de filamento de carbono alcanza un calor rojo, y el de una lámpara llena de gas, un calor amarillo. No es necesario especificar de qué sustancia se trata; si el carbón emite una luz roja a una temperatura de 3000°, entonces el tungsteno o cualquier otra sustancia, elevada a esta misma temperatura, emitirá exactamente la misma luz roja que el carbón, y lo mismo es cierto para otros colores de radiación. Así, cada color, y también cada longitud de onda de radiación, tiene asociada una temperatura definida, siendo ésta la temperatura a la que este color particular es más abundante en el análisis espectroscópico de la luz emitida por un cuerpo caliente. Tan pronto como comienza a aproximarse a esta temperatura particular, pero no antes, la radiación de la longitud de onda en cuestión se vuelve abundante; a temperaturas muy por debajo de esta es bastante inapreciable[6].
Así como hablamos de un calor rojo o de un calor blanco, podríamos, aunque no lo hagamos, hablar legítimamente de un calor de rayos X o de un calor de rayos γ. Cuanto más corta sea la longitud de onda de la radiación, mayor será la temperatura especialmente asociada con ella. Por lo tanto, a medida que hacemos que una sustancia se caliente más y más, emite luz de longitud de onda cada vez más corta y pasa en sucesión a través de [p. 141] todo el arco iris de colores: rojo, naranja, amarillo, verde, azul, índigo, violeta. No podemos controlar un rango de temperatura suficiente para realizar el experimento completo en el laboratorio, pero la naturaleza lo realiza por nosotros en las estrellas.
Los efectos del calor. Ya hemos visto que se necesita una radiación de longitud de onda corta para romper una estructura eléctrica de pequeñas dimensiones. Dado que las longitudes de onda cortas están asociadas con altas temperaturas, ahora parece que cuanto más pequeña es una estructura eléctrica, mayor es el calor necesario para romperla. Y podemos calcular la temperatura a la que una estructura eléctrica de dimensiones dadas comenzará a romperse por primera vez bajo la influencia del calor[7].
Por ejemplo, un átomo ordinario con un diámetro de unos 4 x 10-8 cms, primero se romperá a temperaturas del orden de miles de grados. Para tomar un ejemplo definitivo, la luz amarilla de longitud de onda de 0,00006 cm. está especialmente asociado con la temperatura 4800 grados; esta temperatura representa un «calor amarillo» promedio. A temperaturas muy por debajo de esta, la luz amarilla solo se produce cuando se crea artificialmente. Pero las estrellas y todos los demás cuerpos, a una temperatura de 4800 grados, emiten luz amarilla naturalmente y muestran líneas en la región amarilla de su espectro, porque la luz amarilla elimina el electrón más externo de los átomos de calcio y elementos similares. Los electrones en el átomo de calcio comienzan a perturbarse cuando comienza a acercarse a una temperatura de 4800 grados, pero no antes. Esta temperatura [< sup>p. 142] no se acerca a la tierra (excepto en el arco eléctrico y otras condiciones artificiales), por lo que los átomos de calcio terrestres están generalmente en reposo en sus estados de energía más bajos.
Para tomar otro ejemplo, la longitud de onda más corta de la radiación emitida en la transformación del uranio es de aproximadamente 0,5 x 10-10 cms., y esto corresponde a la temperatura enormemente alta de 5.800.000.000 grados. Cuando comienza a aproximarse a alguna de esas temperaturas, pero no antes, los constituyentes de los núcleos radiactivos deben comenzar a reorganizarse, tal como lo hacen los constituyentes del átomo de calcio cuando se acerca a una temperatura de 4800 grados[8]. Esto, por supuesto, explica por qué ninguna temperatura que podamos dominar en la Tierra tiene un efecto apreciable para acelerar o inhibir la desintegración radiactiva.
La tabla de la p. 144 muestra las longitudes de onda de la radiación necesaria para efectuar varias transformaciones atómicas. Las dos últimas columnas muestran las temperaturas correspondientes y el tipo de lugar, hasta donde sabemos, donde se encuentra esta temperatura, estas últimas entradas anticipan ciertos resultados que se darán en detalle en el Capítulo V a continuación (p. 288). En lugares donde la temperatura está muy por debajo de la mencionada en la penúltima columna, la transformación en cuestión no puede verse afectada por el calor y, por lo tanto, solo puede ocurrir espontáneamente. Por lo tanto, es un proceso totalmente unidireccional. La radiación disponible no tiene una longitud de onda suficientemente corta para hacer funcionar la máquina tragamonedas atómica, los [p. 143] [p. 144] átomos no absorben energía de la radiación circundante y, por lo tanto, retroceden continuamente a estados de menor energía, si es que existen.
Las longitudes de onda más cortas que hemos discutido hasta ahora son las de los rayos γ, pero la última línea de la tabla se refiere a la radiación con una longitud de onda de sólo alrededor de una cuatrocentésima parte de la del más corto de los rayos γ.
Longitudes de onda (cms.) | Naturaleza de la radiación | Efecto sobre el átomo | Temperatura (grados abs.) | Dónde se encuentra |
---|---|---|---|---|
7500 x 10-8 a 3750 x 10-8 |
Luz visible | Perturba los electrones más externos | 3.850° a 7.700° |
Atmósferas estelares |
250 x 10-8 a 10-8 |
rayos X | Perturba los electrones internos | 115.000° a 29.000.000° |
Interiores estelares |
5 x 10-9 a 10-9 |
Rayos γ suaves | Retira todos o casi todos los electrones | 58.000.000° a 290.000.000° |
Regiones centrales de estrellas densas |
4x10-10 | γ-rayos de Radio-B | Perturba la formación nuclear | 720,000,000° | ? |
5x10-11 | Rayos γ más cortos | – | 5,800,000,000° | |
1,3x10-13 | Radiación de alta penetración (?) | Aniquilación o creación de protones y electrones acompañantes | 2,200,000,000,000° |
Desde 1902, varios investigadores, Rutherford, Cooke, McLennan, Burton, Kolhorster y Millikan en particular, han descubierto que la atmósfera terrestre está continuamente atravesada por una radiación que tiene un poder de penetración mucho mayor que cualquier rayo γ conocido. Al enviar globos a grandes alturas, Hess, Kolhorster, y más tarde Millikan y Bowen, han demostrado que la radiación es notablemente más intensa a grandes alturas, demostrando así que llega a la atmósfera terrestre desde el exterior. Si la radiación tuviera su origen en el sol y las estrellas, la mayor parte de la radiación recibida en la tierra vendría del sol, y la radiación sería más intensa de día que de noche. Se encuentra que este no es el caso, por lo que la radiación no puede provenir de las estrellas y, por lo tanto, debe originarse en nebulosas o masas cósmicas distintas de las estrellas.
La cantidad de radiación es muy grande. Incluso al nivel del mar, donde es menor, Millikan y Cameron descubren que se descomponen alrededor de 1,4 átomos en cada [p. 145] centímetros de aire cada segundo. Debe romper millones de átomos en cada uno de nuestros cuerpos cada segundo, y no sabemos cuáles pueden ser sus efectos fisiológicos. La energía total de la radiación recibida en la Tierra es aproximadamente una décima parte de la radiación total, luz y calor juntos, recibida de todas las estrellas. Esto no significa que la luz y el calor sean diez veces más abundantes que esta radiación en el universo como un todo. Porque si la radiación se origina en regiones extragalácticas, entonces las estrellas que nos envían luz y calor están relativamente cerca, mientras que las fuentes de la radiación altamente penetrante son mucho más remotas. Al tomar un promedio a través de todo el espacio, incluidas las vastas extensiones del espacio internebular, parece probable que la radiación altamente penetrante sea mucho más abundante que la luz y el calor estelares, por lo que es la forma de radiación más abundante en todo el universo.
Es la forma de radiación más penetrante que se conoce. La luz ordinaria difícilmente atravesará metales o sustancias sólidas; solo una pequeña fracción emerge a través del más delgado pan de oro. Debido a su longitud de onda más corta y, por lo tanto, a sus cuantos más energéticos, los rayos X atravesarán láminas de unos pocos milímetros de espesor de oro o de plomo. Los rayos γ más altamente penetrantes del radio-B atravesarán pulgadas de plomo. La radiación de la que acabamos de hablar varía en su poder de penetración; la parte más penetrante pasará a través de 16 pies de plomo.
No está del todo claro si la radiación es del tipo de radiación γ muy corta o es de naturaleza corpuscular, como la radiación β; incluso puede ser una mezcla de ambos. Su poder de penetración supera con creces el de cualquier radiación β conocida, de modo que si es corpuscular, [p. 146] los corpúsculos deben estar moviéndose con una velocidad muy cercana a la de la luz.
Si, como parece mucho más probable, la radiación es, al menos en parte, de la naturaleza de la radiación γ, entonces debería ser posible determinar su longitud de onda a partir de su poder de penetración. Hasta hace muy poco, diferentes teorías sobre la relación entre los dos han estado en el campo. La última teoría de todas, la de Klein y Nishina, que es más perfecta y más completa que cualquiera de las teorías anteriores, asigna a la parte más penetrante de la radiación la sorprendentemente corta longitud de onda de 1,3 x 10-13 cms., como se indica en la tabla de la p. 144.
Quizás obtengamos la concepción más clara de lo que esto significa si aplicamos la regla 860; esto muestra que la radiación rompería una estructura eléctrica cuyas dimensiones son sólo alrededor de 10-16 cms. Ninguna estructura formada por electrones y protones puede ser tan pequeña como ésta, ya que el radio de un solo electrón es de unos 2 x 10-13 cm. La radiación tiene aproximadamente la longitud de onda necesaria para romper el propio protón, la estructura más pequeña y compacta conocida por la ciencia.
Enfocando el problema desde otro ángulo, las relaciones numéricas ya dadas muestran que un cuanto de radiación de esta longitud de onda debe tener una energía igual a 0,0015 erg, y por lo tanto debe tener un peso de alrededor de 1,66 x 10-24 gramos. Todo físico reconoce inmediatamente este peso, pues las mejores determinaciones dan el peso del átomo de hidrógeno como 1,662 x 10-24 gramos. El cuanto de radiación altamente penetrante tiene, entonces, casi el peso y la energía que resultaría de un átomo de hidrógeno completo siendo repentinamente aniquilado y liberando toda su energía como radiación.
[p. 147] Difícilmente se puede suponer que toda la radiación altamente penetrante recibida en la tierra tiene su origen en la aniquilación de los átomos de hidrógeno. Si no fuera por otra razón, probablemente no haya suficientes átomos de hidrógeno en el universo para que tal hipótesis sea defendible. El átomo de hidrógeno consta de un protón y un electrón, y su peso es aproximadamente el mismo que el peso combinado de un protón y un electrón seleccionados de cualquier átomo en el universo, de modo que, con una aproximación lo suficientemente cercana, el cuanto de altamente penetrante la radiación tiene la longitud de onda y la energía que resultaría de un protón y un electrón en cualquier átomo, cualquiera que sea, fusionándose y aniquilándose entre sí. Hemos visto cómo los pesos de los diferentes tipos conocidos de átomos se aproximan a múltiplos enteros del peso del átomo de hidrógeno, o para ser más precisos, difieren en pasos casi exactamente iguales, cada uno de los cuales es aproximadamente igual al peso del átomo de hidrógeno. El peso del cuanto de radiación altamente penetrante es igual al cambio de peso representado por un solo paso, de modo que el cuanto podría ser producido por cualquier transformación que degradara el peso de un átomo en un solo paso. En el caso más general posible, esta degradación del peso debe surgir, hasta donde podemos ver, de la coalescencia de un protón y un electrón, con la consiguiente aniquilación de ambos.
Si bien esto parece, de lejos, la fuente más probable de esta radiación, no es la única fuente concebible. Por ejemplo, el isótopo más abundante del xenón, de número atómico 54 y peso atómico 129, está formado por 129 protones, 75 electrones nucleares y 54 electrones orbitales. La formación repentina de tal átomo a partir de 129 protones y 129 electrones implicaría una pérdida de peso casi igual al peso [p. 148] del átomo de hidrógeno. Si la construcción tuvo lugar de manera absolutamente simultánea, de modo que toda la energía liberada se emitiera catastróficamente como un cuanto único, este cuanto tendría aproximadamente la misma longitud de onda y el mismo poder de penetración que la radiación altamente penetrante observada. Hace algún tiempo, Millikan sugirió la formación de otros átomos complejos a partir de constituyentes más simples como una posible fuente de radiación, pero ahora parece que los esquemas que propuso no darían como resultado una radiación de longitud de onda lo suficientemente corta, en todo caso si la teoría moderna de Klein-Nishina es correcta.
Basándose únicamente en la evidencia física, tales esquemas no pueden descartarse como imposibles, pero deben tratarse como sospechosos debido a su alta improbabilidad. El átomo de xenón con sus 258 partes constituyentes es una estructura muy complicada, y es extremadamente difícil creer que todas estas 258 partes puedan convertirse en un átomo completamente formado mediante un solo acto instantáneo, acompañado de la catastrófica emisión de un solo cuanto de radiación. Si los átomos alguna vez se construyen a partir de constituyentes más simples, y no hay evidencia alguna de que este proceso ocurra alguna vez en la naturaleza, parece mucho más probable que la agregación se lleve a cabo en distintas etapas, y que la radiación se emita en un número de pequeños cuantos en lugar de un gran cuanto. Es más, cualquier hipótesis de este tipo tiene que explicar la concordancia numérica del peso calculado de los cuantos de radiación observados con el peso conocido del átomo de hidrógeno como una pura coincidencia. No solo eso, sino que también tenemos que suponer que los átomos de xenón, y posiblemente otros de aproximadamente el mismo peso atómico, se forman con mucha más frecuencia que los átomos de [p. 149] otros pesos atómicos. De hecho, la cantidad de radiación altamente penetrante recibida en la Tierra es tan grande que si fuera evidencia de la creación de xenón, una gran parte del universo ya debería estar compuesta por xenón, quizás mezclado con elementos de peso atómico casi igual. Lejos de que esto sea así, pues el xenón y sus vecinos en la tabla de peso atómico se encuentran entre los elementos más raros. Por estas razones, y sobre el principio general de que siempre se debe dar preferencia en la ciencia a la hipótesis más simple y más natural, podemos decir que la aniquilación de electrones y protones constituye un origen más probable y más aceptable para la radiación altamente penetrante observada.
Podemos dejar el problema en este estado de incertidumbre por el momento, porque aparecerá más adelante pues la astronomía tiene alguna evidencia que dar sobre la cuestión.
[^2] Estos fueron llamados rayos δ por Bumstead.
Esto se expresa en la fórmula matemática
La longitud de onda en un sistema de ondulaciones es la distancia desde la cresta de una ondulación a la de la siguiente, y el término puede aplicarse a todos los fenómenos de naturaleza ondulatoria. ↩︎
El lector cuyo interés se limite a la astronomía puede preferir pasar de inmediato al Capítulo III. ↩︎
Para ser precisos, si v es la frecuencia de la radiación, su cuanto de energía es hv, donde h es una constante universal de la naturaleza, conocida como constante de Planck. Esta constante es de la naturaleza física de la energía multiplicada por el tiempo; su valor numérico es: 6,55 x 10-27 ergs x segundos. ↩︎
en forma de ecuación:
La longitud de onda λ de la radiación y la temperatura asociada T (medida en grados centígrados absolutos) están conectadas a través de la conocida relación:
λT = 0,28S5 cm. grados. ↩︎
Al combinar la relación dada entre T y λ con la implícita en la ley aproximada del «límite de 860», encontramos que una estructura cuyas dimensiones son r cms. comenzará a romperse por radiación de temperatura cuando la temperatura se acerque por primera vez a l/3000_r_ grados. ↩︎
Si suponemos que las reorganizaciones de una estructura eléctrica también pueden efectuarse bombardeándola con partículas materiales, la temperatura a la que el bombardeo de electrones, núcleos o moléculas se hace efectivo por primera vez es aproximadamente la misma a la que la radiación de la longitud de onda efectiva empezaría a ser apreciable; los dos procesos comienzan aproximadamente a la misma temperatura. ↩︎