1. Progresos del pensamiento científico

 

La física, las matemáticas, la biología hacia 1890

 

Las ciencias sociales: Marx, Durkheim

 

Los fundamentos del pensamiento científico antes de 1900

 

El descubrimiento del átomo y el de la relatividad

 

La teoría de los «quanta»; las investigaciones matemáticas

 

La biología, Las investigaciones sobre el mecanismo de la herencia

 

Las nuevas bases del progreso científico

 

El papel de la incertidumbre y del azar en la naturaleza

 

La influencia de la relatividad en el pensamiento científico

 

Las aplicaciones de la investigación científica

El siglo XX introdujo las realizaciones de sus científicos en la vida cotidiana a un ritmo vertiginoso. La leyenda del sabio distante, sumergido en el mundo de sus propios pensamientos y embrollándose con descubrimientos cuya importancia práctica no comprendía, sobrevivió únicamente en las historietas cómicas. Ningún científico de mediados del siglo xx podía estar seguro, por muy abstracto que fuera su trabajo, de que éste no tuviera tarde o temprano una aplicación técnica. Pocos serian tan temerarios que se jactaran, como lo hizo el matemático Godfrey Harold Hardy (1877-1947) en su libro A mathematics's apology, de que era inimaginable que su obra pudiera hacer a nadie el menor daño práctico o el menor bien. De hecho, muchos físicos aprendieron su modo de abordar la matemática en el trabajo precursor del mismo Hardy.

Sin embargo, los nuevos y remotos mundos dentro del átomo, de la célula o del universo que el científico exploraba exigían tales conocimientos y técnicas especializados para ser percibidos que apartaron al científico de sus colegas. Poseía la clave de misterios tan inaccesibles al lego y tan básicos para su bienestar como los que cualquier sacerdocio había monopolizado en otras sociedades. El público tenía que depender de él y concederle su confianza y apoyo; él, por su parte, se veía ante el viejo problema de cómo comunicar el significado de su conocimiento a quienes tenían que actuar a la luz del mismo y cuyos actos, a su vez, afectaban a las tareas científicas. Como comprendía que lo hallado, por muy simple exposición de hechos que fuera, tenía implicaciones prácticas, llegó a reconocer una responsabilidad en hacer comprender a los otros estas implicaciones.

A su vez, el mundo práctico influía en la dirección del progreso científico. No era un acontecimiento totalmente nuevo, porque la dirección en la que la ciencia ha actuado, sus intereses últimos y sus problemas a largo plazo siempre han estado influidos por las preocupaciones y necesidades de las sociedades en que los científicos han trabajado. Cada' sociedad y época ha creado un clima de interés en sus problemas especiales. El científico fundamental, sumergido en este clima de interés, ha probado sus dones en aquellos problemas que han excitado su curiosidad; y su elección de problemas específicos ha podido estar más o menos directamente determinada por la existencia de facilidades que le permitieran seguir las líneas de investigación juzgadas por él más interesantes.

Durante el siglo XX, agencias gubernamentales, industrias, organizaciones profesionales y fundaciones privadas con objetivos prácticos, ofrecieron facilidades siempre en aumento para la investigación científica. Las Universidades desplazaron buena parte de su atención de los estudios humanísticos a los científicos y se hizo frecuente que tipos especiales de investigación en las Universidades fueran estimulados con subvenciones de organismos que esperaban resultados útiles.

La más espectacular irrupción científica, la liberación de energía por fisión atómica y más adelante por fusión, fue lograda en pos de un objetivo militar, durante la segunda guerra mundial y después de ella. En el decenio que siguió a la guerra fueron invertidas enormes sumas en investigación científica virtualmente en todos los países importantes. como parte de sus gastos para la defensa nacional; estas sumas eclipsaron con frecuencia los gastos en investigación de organismos públicos o privados en otras direcciones.

Tal orientación hacia la defensa de buena parle de la investigación científica, si bien tendió a deformar su rumbo, fue menos limitativa de lo que podría parecer a primera vista, porque la guerra total suponía no meramente armas, sino también todos los otros aspectos de acción y supervivencia, como el transporte, la comunicación, la lucha contra la enfermedad, la producción sintética de materiales, los aumentos y la agricultura, la genética; en pocas palabras, todo el campo de vida al que la ciencia había sido y podía ser aplicada. La exploración del espacio exterior, concebida con fines puramente científicos como parte del programa de investigación del Año Geofísico Internacional. 1957-1958, llegó a estar ligada con los esfuerzos militares para diseñar proyectiles que pudieran viajar por el espacio y regresar a la atmósfera terrestre.

Al ampliar los gobiernos sus funciones, apoyaron la investigación en muchas otras direcciones, como la salud pública, la agricultura, La energía, el transporte, las comunicaciones, la construcción y los procesos y problemas sociales. Las industrias gastaron enormes sumas en investigación técnica, fuera dentro de una empresa individual, como en los Bell Laboratories de la American Telephone and Telegraph Company, famosos en todo el mundo por sus trabajos en el campo de las comunicaciones, o en establecimientos de investigación sostenidos por grupos de empresas dedicadas a la producción de acero, petróleo u otros combustibles, productos químicos, plásticos, fibras artificiales, aparatos de radio, aviones o automóviles.

Sala de mandos de contadores electrónicos en los laboratorios de la Organización Europea para la Investigación Nuclear en Meyrin, cerca de Ginebra. Durante el siglo XX, agencias gubernamentales, industrias, organizaciones profesionales y fundaciones privadas con objetivos prácticos ofrecieron facilidades siempre en aumento para la investigación científica. Las Universidades desplazaron buena parte de su atención de los estudios humanísticos a los científicos y se hizo frecuente que tipos especiales de investigación en las Universidades fueran estimulados con subvenciones de organismos que esperaban resultados útiles. Foto UNESCO/R. Atmasy.

La investigación aplicada no se limitó a asuntos prácticos, porque llegó a reconocerse que los próximos pasos en la aplicación dependían frecuentemente de algún descubrimiento científico fundamental, se tratara de la radiación que afecta a la posibilidad de viajar por el espacio exterior o de factores bioquímicos capaces de revelar los secretos del cáncer. La investigación en los Bell Laboratories, por ejemplo, se extendía desde la formación del lenguaje hasta la teoría abstracta de la información. La investigación militar llegó a tan remota matemática como la teoría de los juegos estratégicos. La investigación sobre el carbón en Gran Bretaña dedicó una atención especial a la flora fósil que se halla en el carbón. De modo en extremo impresionante, los trabajos efectuados por Hans Bethe (nacido en 1906) y otros en la década de 1930, al elucidar la fuente de la energía del sol, señalaron el camino para la creación de una primera bomba en la que el hidrógeno se fusionaba con el helio. Pero el trabajo teórico en Rusia, Gran Bretaña y Estados Unidos fue en seguida más allá e ideó una reacción de fusión basada en un nuevo principio. Ejemplos comparables de la estrecha relación entre la investigación fundamental y las necesidades prácticas podían hallarse en muchos campos, incluidos los de la ingeniería de comunicaciones y el cultivo de plantas.

Diversos factores hicieron del apoyo por parte del gobierno y la industria a la investigación científica un rasgo notable del siglo XX e intensificaron esta tendencia con el paso de los años. A medida que la ciencia penetraba en más y más aspectos de la vida, las sociedades esperaron que sus científicos contribuyeran a la supervivencia y el bienestar nacionales; la ciencia misma se convirtió en un instrumento de defensa nacional y en un medio para que la industria pudiera competir en los mercados mundiales, la salud pública fuera una realidad, los accidentes aéreos y terrestres se redujeran, las comunicaciones a larga distancia se perfeccionaran y la producción agrícola aumentara. Además, el enorme costo del equipo reclamado por el trabajo experimental, especialmente en la esfera de la física nuclear y en la exploración del espacio exterior, hizo esencial un apoyo generoso; hasta las Universidades norteamericanas más ricas se vieron apremiadas para equipar laboratorios en los que sus físicos nucleares pudieran dedicarse a la investigación, y varias de ellas se unieron después de la segunda guerra mundial para mantener un laboratorio en común. Por otra parte, muchos problemas no podían ser estudiados efectivamente por un solo científico, sino que exigían la colaboración de un grupo de especialistas y la organización y los fondos que los unieran y sostuvieran en su trabajo.

El uso de la teoría y la tecnología científicas por gobiernos e industrias originó hondos problemas éticos para los científicos y peligros para el desarrollo de la misma ciencia. El trabajo de equipo necesario para la investigación en gran escala condujo hacia la conformidad y desalentó la originalidad y la brillantez. Aunque la acción recíproca entre muchas inteligencias podía ser estimulante, (también podía conducir hacia un consenso de mediocridad que excluyera las cuestiones perturbadoras.

Los descubrimientos hechos por científicos que trabajaban en laboratorios industriales se convertían generalmente en propiedad de su compañía, que podía entonces determinar el correspondiente empleo, y el contrato de trabajo del científico frecuentemente restringía su labor ulterior en el mismo campo, dentro o fuera de la empresa. Cuando los científicos trabajaban para el gobierno, los problemas de seguridad nacional exigían frecuentemente el secreto. Se levantaron así muros alrededor del científico individual y la lealtad al país lo puso en conflicto con la más básica de las lealtades científicas, la busca de la verdad y el libre curso del conocimiento.

Hans A. Bethe, que, al igual que otros, realizó unos trabajos en la década de 1930 que señalaron, al elucidarla  fuente de la energía del sol. el camino para la creación de una primera bomba en la que el hidrógeno se fusionaba con el helio. Foto Agencia Camera Press.


Satélite  ruso Lunik III, estación automática interplanetaria que 1959 la cara oculta de la Luna. A medida que la ciencia penetraba en más y más aspectos de la vida, las sociedades esperaron que sus científicos contribuyeran a la supervivencia y el bienestar nacionales; la ciencia misma se convirtió en un instrumento de defensa nacional y en un medio para que la industria pudiera competir en los mercados mundiales. Cortesía Planeta.

Sin embargo, no todos los descubrimientos científicos del siglo xx dependieron de costosos experimentos o del trabajo cooperativo de muchos especialistas. La paciencia y la imaginación se revelaron con frecuencia más importantes que el equipo complejo en la obtención de nuevas percepciones científicas, especialmente en las ciencias biológicas y sociales. Un físico indio, Chandrasekhara Venkata Raman (nacido en 1888), con un mínimo equipo y un trabajo matemático muy cuidadoso, descubrió en 1928 importantes características de la dispersión de la luz, conocidas como el efecto Raman.

Inclusive en la física nuclear continuaron haciéndose importantísimos descubrimientos por físicos teóricos, frecuentemente trabajando donde no podía suministrarse equipo costoso. Eh la década de 1930, el físico japonés Hideki Yukawa (nacido en 1907) predijo, basado en fundamentos teóricos, la existencia de mesones, antes de que estas partículas hubieran sido alguna vez buscadas y antes de que se construyeran gigantescas máquinas para producirlas.

Análogamente, dos físicos teóricos chinos, T. D. Lee (nacido en 1926) y C. N. Yang (nacido en 1922), trabajando en Estados Unidos, idearon un experimento para probar el supuesto de que los fenómenos atómicos debían ser simétricos. Inopinadamente, en 1956, el experimento refutó esta presunción básica en la física y abrió un interesante campo de estudio.

Trabajara el científico solo o en grupo, experimental o teóricamente, en la reclusión académica o empleado por el gobierno o la industria, su propia imaginación creadora y curiosidad científica siguieron siendo la fuerza impulsora que llevaba a nuevos descubrimientos.


Laboratorio del  Instituto de Energía Nuclear en la URSS

Y, a pesar de los reglamentos de seguridad, los secretos profesionales y la dirección gubernamental o industrial de algunas investigaciones, subsistió mucha libertad para el intercambio de información y la naturaleza de la misma ciencia exigió constantemente que este intercambio se efectuara. Por encima de las fronteras nacionales o de otra naturaleza, los hombres de ciencia continuaron compartiendo sus observaciones y constituyendo así un acervo de saber, como habían estado haciéndolo desde el comienzo de la investigación científica moderna.

La estrecha relación entre científico, técnico y lego echó sobre los hombros del científico la carga de hacer que otros comprendieran claramente las implicaciones de lo que él descubría. En el siglo XX, esto fue una tarea cada vez más necesaria y cada vez más difícil. Era más necesaria porque la repercusión de la ciencia en la vida de la humanidad obligaba a los legos a hacer constantemente juicios que suponían el uso del saber científico y les era preciso una comprensión para que estos juicios tuvieran solidez. Era más difícil a causa de la falta de un lenguaje en el que los científicos pudieran comunicarse con los profanos.

La imperiosa necesidad de que el científico hiciera comprender a otros el significado de sus descubrimientos se intensificó a mediados del siglo por la amenaza contra la misma existencia de la humanidad que suponían la explosión nuclear y la liberación de radiactividad. Estos frutos del esfuerzo científico no se limitaron a atribuir a los científicos la pesada responsabilidad de que se comprendiera lo que tales frutos significaban; pusieron también al hombre de ciencia ante un conflicto ético básico. Al elegir la investigación que debían efectuar y los instrumentos que debían crear, los científicos se vieron obligados a pensar en función de sus deberes éticos, del mismo modo que en función de su deber de descubrir leyes de la naturaleza. El juicio y el entendimiento exigidos al hombre de ciencia fueron más allá de su competencia como especialista en su esfera.

Sin embargo, a medida que las ciencias se especializaban más y sus investigaciones resultaban más detalladas, se hacía difícil para el científico individual presentar su pensamiento en el contexto general de la ciencia. Con su vocabulario especial de palabras y símbolos, era frecuento que apenas pudiera comunicarse inclusive con otros científicos fuera de su campo, quienes también tenían sus propios vocabularios y símbolos especiales.


Laboratorio del  Instituto de Energía Nuclear en la URSS

Todavía era más difícil hacer que la naturaleza y el significado de sus descubrimientos fueran comprendidos por el público.  La dificultad estaba acrecentada por el hecho de que, a mediados del siglo xx, los nuevos descubrimientos científicos no habían suministrado todavía un sólido principio organizador que pudiera ser observado en todas las ciencias y poner orden en las disciplinas dispersas, de la misma manera que la elucidación del principio de causa y efecto había puesto orden en el disperso conocimiento del siglo xv.

La ausencia de tal principio general era una desventaja para el científico, sobre todo en sus relaciones con el público. Porque las relaciones dependían de un lenguaje que el científico pudiera considerar lo bastante exacto y que, aun así, el público pudiera comprender. Los Principia de Newton le habían creado un lenguaje de comunicación entre el científico y el público para su época y El origen de ¡as especies de Darwin había hecho otro tanto para su tiempo. Los principios que forman la base de estos libros podían ser comprendidos por el público, que obtenía así un conocimiento del método científico y un vocabulario de hechos de la ciencia.

El lenguaje capaz de poner al público en contacto inmediato con la nueva ciencia no había sido aún creado a mediados del siglo xx; era cuestión debatible si podría ser creado antes de que se extrajera un principio unificador de las ideas revolucionarias de la ciencia del siglo, al modo como se había lentamente formado una noción unificadora después de la primera revolución científica, entretanto, el público se mantenía perplejo ante la nueva ciencia, porque carecía de un lenguaje y de los hábitos mentales que el lenguaje formaliza. Desconcertado, pues, no podía asumir fácilmente su responsabilidad en el uso de los nuevos descubrimientos científicos y culpaba a veces al hombre de ciencia de haber hecho descubrimientos que podían ser dedicados a fines destructores.


Repercusiones del pensamiento científico en la vida cotidiana

Sin embargo, cierta perspectiva científica llegó a penetrar en la vida cotidiana y algunos de los nuevos conceptos científicos se convirtieron, a veces diluidos o deformados en parte de las ideas corrientes. En las zonas donde el punto de vista científico era aceptado —y estas zonas aumentaban de modo constante, tanto geográficamente, a medida que la gente entraba en contacto con las técnicas modernas, como en campos cada vez, más vastos de la vida cotidiana—, el público llegaba a respetar los hechos y a considerarlos racional y empíricamente. Esto se manifestó de manera especialmente notable no solamente en asuntos prácticos relacionados con la industria y los viajes, sino también en la esfera de la salud, donde el nuevo saber suplió a las prácticas tradicionales a un ritmo impresionantemente rápido. Tal vez la prueba más significativa de la medida en que la ciencia había entrado en la perspectiva del siglo XX fue la aceptación del cambio como un fenómeno continuo y fundamental y la adaptación a su ritmo en aceleración constante. Esto no era únicamente cierto en los países occidentales, donde la espera del cambio se había convertido en una actitud bien arraigada. En las sociedades históricamente más estáticas del este, donde el cambio había sido mirado como un abandono de las normas eternamente establecidas, se transformó en la orden del día.

Igualmente fundamental fue el concepto de nuevas potencialidades que la ciencia traía consigo y el público aceptaba. En todo el mundo, la gente que había dado por supuestas durante siglos la pobreza y la enfermedad vio en los métodos y los frutos de la ciencia una nueva posibilidad de realización humana. En la primera mitad del siglo xx, esta visión alteró la perspectiva de la humanidad.


Fotomontaje alegórico a los inventos del siglo XX realizada a partir de un cuadro de Holbein el Joven. Pete a su carácter abstracto, cierta perspectiva científica llegó a penetrar en la vida cotidiana y  algunos de los nuevos conceptos científicos se convirtieron, a veces diluidos o deformados, en parte de las ideas corrientes. Foto Agencia Zardoya.

Se incorporaron a actitudes y pensamientos conceptos específicos de la nueva ciencia. El principal entre éstos fue la noción de la relatividad. Aunque frecuentemente mal entendida, la idea de la relatividad es un concepto revolucionario en física que estampó en moralistas, artistas y el hombre común la noción de que, desde otros puntos de vista, la realidad puede manifestarse de modo deferente y. sin embargo, ser tan válida como la que ellos mismos perciben.

También el concepto de la incertidumbre entró en la mente popular y muchas personas aprendieron a pensar estadísticamente en términos de azar y probabilidad más que en términos de la certidumbre de causa y efecto directos. Conceptos deducidos de los estudios psicológicos sobre conocimiento y condicionamiento y del análisis freudiano de la formación de la personalidad entraron a formar parte del saber popular asociados con la educación de los hijos. La convicción del hombre de ciencia de que el observador es inevitablemente una parte de lo que observa se reflejó en la perspectiva interior del escritor moderno. Y el hecho de que la física fijara su atención en la estructura atómica también influyó para que pintores y escultores describieran lo que veían como una estructura discontinua más que corno una apariencia de superficie.

En el mundo un rápido cambio del siglo xx, la ciencia fue una fuerza siempre creciente que proporcionaba sin pausa nuevos hechos y nuevas capacidades que provocaban cambios en estructuras, actividades y relaciones, muchas veces antes de que hubiera creado los medios para afrontar los resultados de tales cambios.

Los capítulos que siguen examinarán este proceso en la elaboración del pensamiento científico y la aplicación del conocimiento científico, mientras la acción recíproca entre el saber y la acción rehacían un aspecto tras otro de la vida de la humanidad.

2. La elaboración de las ciencias físicas

El rápido aumento de los conocimientos científicos y técnicos trajo un concomitante aumento en la especialización, pues se hizo necesario que un solo individuo dominara una gran variedad de saber para mantenerse al día incluso en un reducido campo de investigación.1 Se convirtió casi en norma el poner en contraste al «especialista limitado» del siglo XX con el «genio universal» de los tiempos pasados. Sin embargo, concurrente con esta tendencia hacia la especialización hubo otra tendencia unificadora. Si en tiempos anteriores un hombre podía luchar en las fronteras del conocimiento en diversos campos, como la física, la química y la geología, existía escasa unidad en los contenidos de estas ramas del saber. La física y la química se mostraban como disciplinas separadas y bien definidas. En general, los geólogos rechazaban la noción de que tas rocas que estudiaban podían ser comprendidas recurriendo a las leyes de la química y la física. La aplicación de la física a la astronomía estaba limitada a la mecánica celeste, en la que se utilizaban las leyes del movimiento de Newton para predecir los desplazamientos de los cuerpos astronómicos.

En el siglo XX, el aislamiento de las diversas ciencias físicas fue desapareciendo a consecuencia del desarrollo de la teoría universal de la materia. El conocimiento de las propiedades de los átomos y las moléculas obtenido por los químicos del siglo XIX y las leyes mecánicas y la teoría electromagnética de los físicos fueron ampliados y unificados por nuevos descubrimientos, particularmente por el descubrimiento de la existencia y las propiedades de las partículas elementales, en especial el electrón, el protón y el neutrón, y por el desarrollo de la mecánica del cuanto. Como resultado de esta unificación, los límites entre la física y la química se hicieron mucho más arbitrarios, como trazados tanto por lo menos por la tradición y el accidente histórico como por cualquier diferencia inherente en los contenidos.

La ciencia física a mediados del siglo XX, fuera cultivada en nombre de la física, la química o cualquier otra ciencia, consistía en gran parte en ampliar todavía más la teoría de la materia y aplicarla a todas las partes imaginables del mundo físico. Se aplicaba una teoría unificada de la materia, siempre con la misma confianza, para aumentar la comprensión que el hombre tenia de las propiedades de los metales familiares, de la materia en el centro de la Tierra o de las más distantes regiones del universo. Buena parte de la biología era planteada como ciencia física y había pocos astrónomos que no hablaran de ellos mismos como astrofísicos. El desarrollo de la nueva teoría de la materia fue el acontecimiento básico de la física y la química del siglo XX, y la nueva comprensión de la estructura de la materia que la misma permitió transformó las disciplinas de la geología y la astronomía.

Además de su éxito en la integración de las ciencias físicas, esta nueva revelación tuvo incalculable importancia para la tecnología. Se crearon verdaderas industrias como consecuencia de la mejor comprensión por el hombre de la naturaleza de la materia. Descubrimientos básicos se tradujeron frecuentemente a los pocos anos en productos comerciales, mientras, por otro lado, los productos de la tecnología más avanzada suministraron los útiles sin los cuales buena parte de la investigación básica hubiera sido imposible.

La herencia de la física y  la química clásica

Al término del siglo XIX se había logrado ya una satisfactoria síntesis de los fenómenos macroscópicos. Al trabajo clásico en mecánica de los siglos XVI y XVII se había agregado una nueva comprensión de los fenómenos termodinámicos y electromagnéticos; de estos últimos principalmente a consecuencia del trabajo experimental de Michael Faraday y de las contribuciones teóricas de James Clerk Maxwell. Maxwell había conseguido unificar en unas pocas ecuaciones sencillas fenómenos tan diversos como la atracción de cuerpos con cargas opuestas, la rotación de motores eléctricos y la reflexión de la luz. Los tres campos, mecánica, electromagnetismo y termodinámica, habían sido integrados por el principio de largo alcance de la conservación de la energía.

Sin embargo, aun dentro de este gran sistema, subsistieron algunas contradicciones hasta que la teoría de la relatividad especial de Einstein proporcionó en 1905 la clave para los principales problemas no resueltos. Los delicados experimentos de Michelson y Morley no habían logrado descubrir ningún movimiento de la Tierra respecto al hipotético éter, mientras que la teoría clásica de la luz inducía a los científicos a esperar un movimiento así. Einstein mostró que era posible formular las leyes de la mecánica y la teoría electromagnética de un modo que sería idéntico en todos los sistemas de coordenadas que se desplazaran a una velocidad constante el uno respecto del otro. En esta teoría, la velocidad de la luz es la misma en cualquiera de es los sistemas de coordenadas, explicándose así el resultado negativo del experimento Michelson-Morley.

Para llegar a este resultado, Einstein alteró levemente las ecuaciones clásicas de la mecánica, así como las ecuaciones utilizadas para convertir datos medidos en un sistema de coordenadas a sus equivalentes en un sistema de coordenadas en movimiento relativo. Estos cambios en las leyes de la mecánica eran tan leves que las discrepancias que corregían no habían sido advertidas en los anteriores datos experimentales. Sin embargo, se proyectaron y realizaron subsiguientemente muchos experimentos para poner a prueba las predicciones de la teoría de la relatividad especial y la teoría quedó impresionantemente confirmada. De este modo, a comienzos del siglo xx la teoría de la relatividad especial completó la gran síntesis de la física macroscópica y constituyó el coronamiento de este monumento del pensamiento del siglo XIX.

Al dirigir la mirada a la física del siglo XIX desde mediados del siglo xx, parecía que buena parte de la integridad de esta síntesis procedía de la elección de fenómenos interesantes para los físicos. Había varias clases de fenómenos físicos que la física clásica nunca pudo explicar. Por ejemplo, cuando una descarga eléctrica pasa a través de hidrógeno, la luz emitida está confinada en ciertas distintas longitudes de onda, a las que se llama líneas espectrales. Esta serie de longitudes de onda forma el espectro característico del hidrógeno, que es diferente del espectro igualmente característico de cualquier otro elemento, digamos el nitrógeno. Estos espectros eran un importante instrumento práctico en física, química y astronomía. Se idearon modelos clásicos del átomo en un intento de explicar estos espectros, pero la física clásica se reveló incapaz de decir exactamente por qué un elemento dado era capaz de emitir ciertas longitudes de onda y no otras.

Otro ejemplo puede ser tomado de la teoría de la elasticidad, que se desarrolló mucho durante el siglo XIX. Esta teoría está fundada en el supuesto conocido como ley de Hooke, que dice que cuando un cuerpo es deformado su deformación es proporcional a la fuerza que causa la deformación o, como se expresa más comúnmente, la tensión es proporcional al esfuerzo. El factor de proporcionalidad entre la tensión y el esfuerzo es llamado la constante elástica y dependerá en general del tipo de deformación. Así, la constante elástica de la deformación por torsión es generalmente distinta de la deformación por estiramiento.

A comienzos del siglo XIX hubo una viva controversia entre varios destacados físicos y matemáticos dedicados al desarrollo de la teoría de la elasticidad, respecto a cuántas constantes diferentes era preciso especificar a fin de describir las propiedades elásticas de un cuerpo. Una escuela sostenía que eran necesarias dos, una para describir la resistencia del cuerpo al estiramiento y otra para describir su resistencia a la torsión. La otra escuela insistía en que sólo era necesaria una constante y que, una vez dada ésta, la otra podía ser calculada. La diferencia fundamental entre las teorías propuestas estribaba en que la escuela de una constante establecía ciertos supuestos en relación con las fuerzas entre los átomos y moléculas de los que el cuerpo estaba compuesto, mientras que la otra no lo hacía.

Si bien hubo siempre defensores de la tesis de una constante, fue característico de la física del siglo XIX que la principal corriente de progreso en la teoría clásica de la elasticidad siguiera la tesis de las dos constantes y que los grandes éxitos obtenidos por esta teoría hasta el término del siglo se debieran a criterios que tenían las dos constantes como base. La razón de ello fue que, en el siglo XIX, cualquier teoría que dependiera de la supuesta estructura atómica de un cuerpo estaba condenada al fracaso, porque sencillamente no existía una adecuada teoría de los átomos y de la acción recíproca entre ellos. La teoría de las dos constantes dependía únicamente de principios más generales, como las leyes de la mecánica y la termodinámica, que estaban bien establecidas a mediados del siglo XIX. Sin embargo, como resultado de la nueva comprensión de la estructura de la materia, se hizo de hecho posible emprender el cálculo de las constantes elásticas partiendo de principios más fundamentales y hasta determinar las circunstancias en que la ley de Hooke dejaría de ser válida.

Como indican estos ejemplos, los científicos del último siglo hicieron repetidos esfuerzos para explicar fenómenos que dependían de la estructura microscópica de la materia. Estos intentos rara vez tuvieron éxito, si exceptuamos unos pocos casos, como la clásica teoría cinética de los gases, Sin embargo, los triunfos de la física clásica en la esfera macroscópica fueron tan grandes que estas dificultades no fueron tomadas muy en serio y se consideró en general que el estado de la ciencia era eminentemente satisfactorio.

También la química del siglo XIX había elaborado un vasto sistema de elementos químicos y sus relaciones entre ellos que era tenido como completo, aunque se apoyaba en observaciones empíricas cuyas razones no se explicaban. Los tempranos trabajos ajustados a los lincamientos fijados por Antoine Laurent Lavoisier (1743-1794) a fines del siglo XVII habían identificado muchos elementos químicos, estudiado las reacciones más sencillas entre ellos y establecido que los elementos, con mucha aproximación, se combinan en pesos proporcionales a pequeños números enteros. A comienzos del siglo XIX, John Dalton (1766-1844) tuvo la idea de que esta ley de proporciones múltiples podría ser explicada si un elemento químico dado estuviera compuesto de idénticos e indestructibles átomos de materia de un peso definido y, con esta teoría, estableció los cimientos para el subsiguiente desarrollo de la química2.

La teoría atómica llevó al desarrollo de técnicas precisas para la determinación de los pesos atómicos y muchos de los procedimientos analíticos que continuaron en uso tuvieron su origen en este trabajo.


Retrato de John Dalton según un grabado de Stepfhenson. A comienzos del siglo XIX, John Dalton tuvo la idea de que la ley de proporcionen múltiples podría ser explicada si un elemento químico dado estuviera compuesto de idénticos e indestructibles átomos de materia de un peso definido y, con esta teoría, estableció los cimientos para el subsiguiente desarrollo de la química.

Éste proporcionó también una interpretación del concepto de valencia. La valencia de un elemento representa las proporciones relativas en que el hidrógeno se combina con un elemento dado. Por ejemplo, un peso atómico (un gramo) de hidrógeno reacciona con un peso atómico (35,5 gramos) de cloro para formar ácido clorhídrico, mientras que, en la reacción análoga con el oxígeno, hacen falta, para que reaccionen con un peso atómico (16 gramos) de oxígeno, dos pesos atómicos de hidrógeno. Consiguientemente, se dice que el cloro tiene una valencia de uno mientras que el oxígeno tiene una valencia de dos.

En términos de la teoría atómica, se entiende que el átomo de oxígeno puede combinarse con dos átomos de hidrógeno, mientras que el átomo de cloro se combina sólo con uno. Esta propiedad de la valencia es, como el peso atómico, una propiedad fundamental de un elemento y, por consiguiente, de acuerdo con la teoría atómica, debe representar alguna propiedad que los átomos de ese elemento poseen.

En 1869, Dimitri Ivanovich Mendeleyev (1834-1907) logró relacionar los pesos atómicos, las valencias y muchas otras propiedades de los elementos mediante su famoso sistema periódico, que mostraba cómo las propiedades de los elementos tienden a repetirse cuando se los dispone en un orden de creciente peso atómico. Con base en este descubrimiento fue posible predecir la existencia y las propiedades de una serie de elementos que faltaban, algunos de los cuales fueron rápidamente descubiertos.

Hubo también un gran desarrollo de la química orgánica después de la afortunada síntesis de urca con materia inorgánica que logró Fricdrich Wohler (1800-1882) en Golinga en 1828, con lo cual se refutó la idea de que existía una diferencia fundamental entre la materia orgánica y la inorgánica. Se sintetizaron muchos nuevos compuestos, se comprendieron sus reacciones y se estableció la forma estructural de sus moléculas.

En la estera de la química física, se habían aplicado las leyes de la termodinámica al problema del equilibrio químico, lo cual llevó a la formulación de la ley de acción de masa; se habían creado las técnicas de la electroquímica y establecido los cimientos para una teoría de la velocidad de las reacciones químicas.

Aunque estas realizaciones fueron muy importantes, los fundamentos básicos de la química del siglo XIX eran en gran parte empíricos. No se sabía por qué los átomos tenían que unirse en moléculas de ciertas maneras y no de otras. Estudios de las sales ionizadas como el cloruro de sodio indicaban que el enlace era de naturaleza eléctrica, pero, en cambio, allí estaban los numerosos compuestos del carbono en los que la ligazón no parecía eléctrica. No se sabía por qué las propiedades de los elementos tenían que repetirse según lo demostrado por Mendeleyev ni por qué algunos compuestos, como e! agua, eran líquidos en condiciones ordinarias mientras otros, como el metano, eran gaseosos. Todo el campo estaba muy necesitado de una generalización que reemplazara a la colección en rápido aumento de hechos empíricos. Como resultado de los combinados esfuerzos de físicos y químicos, el desarrollo durante el siglo xx de la teoría del alomo nuclear y las leyes de la mecánica cuántica proporcionó esta generalización.

Símbolos atómicos de John Dalton, folleto de una conferencia..La teoría atómica llevó al desarrollo de técnicas precisas para la determinación de los pesos atómicos y muchos de los procedimientos analíticos que continuaron en uso tuvieron su  origen en este trabajo. Archivo Antonio Martín.

Friedrich Wohler, que propició un gran desarrollo de la química orgánica después de una afortunada síntesis de urea con materia inorgánica, lograda en Gotinga en 1828, con lo cual se refutó la idea de que existía una diferencia fundamental entre la materia orgánica y la inorgánica. Foto Agencia AGE.

El descubrimiento del modelo atómico nuclear

Ha sido frecuente en la marcha progresiva de la ciencia que grandes descubrimientos no se hayan deducido naturalmente de cuestiones lógicamente planteadas a consecuencia de un trabajo anterior. En ocasiones, parecen surgir más bien de progresos tecnológicos que permiten hacer nuevos tipos de mediciones. Los descubrimientos que llevaron al hundimiento de la física clásica y abrieron el camino al explosivo desarrollo de la física atómica en el siglo XX pueden ser referidos a la invención por Heinrich Geissler (1814-1879) en 1855 de una bomba neumática muy perfeccionada, ulteriormente perfeccionada aún más por otros investigadores. Si bien estas máquinas eran muy lentas y poco eficaces conforme a los módulos modernos, supusieron tal perfeccionamiento respecto a las anteriores que muchos científicos se sintieron alentados a hacer experimentos con gases a bajas presiones. Especialmente estudiaron las propiedades eléctricas de estos gases y descubrieron muchos nuevos fenómenos, como las descargas luminosas que nos ofrecen los letreros de neón y los haces de partículas que denominaron rayos catódicos. J. J. Thomson, trabajando en el Cavendish Laboratory de Cambridge (Inglaterra), mostró que estos rayos catódicos eran los mismos con independencia del material que los producía y llegó a la conclusión de que eran átomos de electricidad o electrones.

Con utilización de tubos análogos de rayos catódicos, Konrad Von Ronigen descubrió en 1895 un nuevo tipo de radiación que podía penetrar en materia opaca y que llamó rayos X. Se sospechó en aquel tiempo que estos rayos estaban relacionados con la fluorescencia producida en la pared de vidrio del aparato por el bombardeo de los rayos catódicos.


Primera fotografía de la difracción de los electrones obtenida por G. P. Thomson y A. Reid. J.J. Thomson (padre del anterior), trabajando en el Cavendish Laboratory de Cambridge (1nglaterra), mostró que los rayos catódicos eran los mismos con independencia del material que los producía y llegó a la conclusión de que eran átomos de electricidad o triectrones. Servicio Documental Planeta.

Los rayos X tuvieron una inmediata aplicación médica, pero tal vez fue todavía más importante para el progreso de la ciencia el hecho de que su descubrimiento indujo al científico francés Henri Becquerel a efectuar una serie de experimentos sobre fluorescencia utilizando minerales naturalmente fluorescentes que contenían el elemento uranio. Estos experimentos llevaron al descubrimiento de la radiactividad natural en 1896.


Primer dispositivo de Rutherford para la desviación de los rayos alfa en un campo magnético o eléctrico. Servicio Documental Planeta.

Se vio que los elementos naturalmente radiactivos emitían tres clases distintas de radiaciones energéticas en procesos por los que estos inestables átomos pesados se transmutan espontáneamente de un elemento químico a otro; los tres tipos de radiación fueron llamados alfa, beta y gamma antes de que fuera conocida su verdadera naturaleza. Como consecuencia, los materiales naturalmente radiactivos se revelaron valiosos en extremo como fuentes de partículas de alta energía que podían ser utilizadas en otros estudios de la naturaleza de la materia.


J, J. Thomson ideó un instrumento, llamado espectrógrafo de masas, por medio del cual pudieron ser determinadas las masas relativas de átomos individuales. Con este instrumento, pronto se  supo que no todos los átomos del misino elemento químico tienen la misma masa. Vista en sección del primer espectrógrafo de masas.

Nuevos estudios mostraron que la radiación alfa consiste en un haz de partículas relativamente pesadas y cargadas positivamente que se sabe son veloces núcleos de átomos de helio. La radiación beta consiste en un haz de partículas mucho más ligeras y cargadas negativamente de la misma naturaleza que los electrones de los rayos catódicos, salvo que poseen mucha más energía de movimiento que cualesquiera rayos catódicos que pudieran obtenerse con los medios técnicos disponibles en aquel tiempo. Finalmente, se vio que la radiación gamma era como la radiación electromagnética de los rayos X, pero de longitud de onda todavía más corta.


Esquema del primer  espectrógrafo de masas. Servicio Documental Pianola.

Los experimentos más decisivos en este terreno fueron los realizados por Ernest R. Rutherford en Manchester (Inglaterra). Estudió (1911 (la dispersión angular de veloces partículas alfa que pasaban a través de delgadas hojas de diversos materiales, Su trabajo reveló que, en los casos en que las partículas eran desviadas en ángulos moderadamente abiertos (diez grados o más), la desviación era consecuencia de una fuerte acción recíproca entre una partícula alfa y un átomo individual de la hoja dispersora, no del efecto acumulativo de acciones recíprocas más débiles con muchos átomos de la hoja. Del estudio cuantitativo de tales dispersiones angulares, Rutherford dedujo que la electricidad positiva en el átomo no estaba extendida por todo el átomo de un diámetro de aproximadamente 10-9 cm sino que tenía que estar concentrada en un pequeño núcleo que no podía tener más que la diezmilésima parte del diámetro de todo el átomo. Además, comparando el modo en que diversos elementos dispersaban partículas alfas, averiguó las cantidades relativas de carga positiva en los núcleos de diferentes elementos.

Nació de esta manera el concepto del átomo nuclear, es decir, que los átomos consisten en un pequeño centro de carga positiva con un diámetro aproximado de 10  -15  cm., rodeado por una carga negativa igual en la forma de electrones a una distancia aproximada de 10-12 cm. Se pensó que la carga positiva del núcleo procedía de un número de átomos positivos de electricidad llamados protones, análogos a los electrones negativos. Este concepto constituyó en adelante la base de toda la comprensión de la materia. En el estado normal, cada núcleo está rodeado por un número de electrones negativamente cargados suficiente para hacer que el conjunto del átomo sea eléctricamente neutro. Todos los átomos de un elemento químico dado se parecen entre sí en que tienen la misma carga nuclear y, consiguientemente, el mismo número de electrones girando alrededor del núcleo. Este número es llamado el número atómico, al que se denota usualmente por Z.  3 De este modo, los elementos químicos se mantienen en correspondencia de uno a uno con los números enteros, desde el uno para el hidrógeno, pasando por el 2 para el helio, el 3 para el litio, el 4 para el berilio, el 5 para el boro, el 6 para el carbono, el 7 para el nitrógeno, el 8 para el oxígeno y así sucesivamente, hasta el 92 para el uranio, el mayor valor de Z para un elemento químico que exista naturalmente.

Aproximadamente en la misma época J. J. Thomson ideó un instrumento, llamado espectrógrafo de masas, por medio del cual pudieron ser determinadas las masas relativas de átomos individuales. Con este instrumento, pronto se supo (1910) que no todos los átomos del mismo elemento químico tienen la misma masa. Por ejemplo, se vio que los átomos del neón (Z=10) son de tres clases, con masas A= 20, 21 y 22, en una escala en la que el hidrógeno ordinario tiene el número de masa A = 1 y el oxígeno ordinario el de A = 16. Estas diferentes clases de átomos del mismo elemento químico reciben el nombre de isótopos. En los términos del modelo nuclear de Rutherford, estos experimentos revelaron que los núcleos pueden tener una variedad de masas para una carga positiva dada Z.

Apenas hizo Rutherford su descubrimiento básico de la necesidad de un modelo nuclear, la idea fue adoptada y desarrollada de un modo extraordinariamente fecundo por Niels Bohr. Era entonces un joven físico teórico danés que había ido hacía poco a  Manchester para continuar sus estudios de graduado. Bohr se propuso desarrollar el modelo de átomo nuclear de Rutherford estudiando con más detalle el comportamiento de los electrones exteriores y cómo este comportamiento se relacionaba con la emisión o absorción de luz por un gas formado por muchos de tales átomos. A fin de lograr esto, tuvo que apartarse radicalmente en ocasiones de lo que entonces parecían consecuencias firmemente establecidas de las leyes conocidas del electromagnetismo. De acuerdo con lo que entonces se sabía, los electrones debían moverse alrededor del núcleo en órbitas. Al ser acelerados en su movimiento, debían irradiar ondas eléctricas, como las cargas oscilantes que generan las ondas de radio. Al irradiar, perderían energía y se moverían más de prisa en órbitas menores y, de este modo, la frecuencia de la luz emitida aumentaría con regularidad. Consiguientemente, un gas de muchos de tales átomos tendría que emitir un espectro de frecuencias continuas, en franca contradicción con el espectro de líneas claramente separadas que de hecho es emitido.

Para superar esta dificultad, Bohr postuló que los átomos sólo pueden existir en separados niveles de energía claramente definidos, lo cual suponía que las órbitas del electrón sólo podían tener definidos tamaños y formas. Postuló seguidamente que un átomo emite una unidad o cuanto de radiación luminosa efectuando una brusca transición o salto de un nivel superior de energía a otro inferior y absorbe radiación mediante una análoga transición de un nivel inferior de energía a otro superior. Finalmente, supuso que la frecuencia de la luz emitida o absorbida en tales saltos es igual a la diferencia en energía entre los niveles inicial y final dividida por la constante cuántica de Planck, h= 6,55 x 10-34 Js.

Con estos sencillos pero audazmente radicales postulados, pudo ofrecer una interpretación cuantitativa directa del espectro atómico del hidrógeno. Su trabajo fue muy pronto continuado por otros, quienes procedieron a demostrar cómo la natural extensión del mismo podía explicar muchos rasgos de más complejos espectros atómicos.

Los desarrollos de la mecánica cuántica

Los sucesivos éxitos del modelo atómico Rutherford-Bohr provocaron una febril excitación en el mundo de la física. Pronto el modelo fue ampliado para que explicara los espectros de rotación y vibración de moléculas diatómicas, interpretados seguidamente como fuentes de datos cuantitativos sobre los lazos químicos entre los átomos de tales moléculas. Como ilustra este último adelanto, la física y la química se unieron durante los veinte años siguientes para formar una ciencia con leyes fundamentales comunes que eran cada vez más y mejor comprendidas.

Aunque el uso que hizo Bohr de los saltos del cuanto para interpretar la emisión y la absorción de luz por átomos o moléculas era algo radical según los módulos de la física del siglo XIX, este supuesto era un paso adelante natural desde que Max Planck introdujo en 1900 la idea original del cuanto de luz. Planck fue inducido a la idea por el análisis teórico de la radiación emitida por los cuerpos calientes. A causa de su radical naturaleza y de la dificultad del razonamiento que suponía, la idea del cuanto de luz no tuvo gran influencia en la física hasta que Einstein la empleó de manera más sencilla en 1905.

Desde comienzos del siglo XIX la luz había sido considerada como un movimiento ondulatorio. Para fines del mismo siglo, se sabía que estas ondas eran ondas de fuerza eléctrica y magnética y se comprendían bien las leyes que gobernaban su propagación. De acuerdo con la idea del cuanto de luz según su utilización por Bohr y Planck, se supone que el cambio de energía que se produce cuando los átomos emiten o absorben luz es discontinuo, de tal modo que, en un proceso elemental individual, la energía siempre es emitida o absorbida en unidades que son siempre las mismas para luz de una frecuencia definida, como iguales de hecho a : donde E es el cuanto de energía,  es la frecuencia de la luz y h, la constante de Planck, constituye una constante universal cuyo valor tiene que ser determinado por el análisis de los fenómenos observados.


Extracto de una carta de Max Planck dirigida a Arnold Sommerfeld en que se señala los cambios realizados en la teoría atómica de Bohr-Somtnerfeld Foto Agencia AGE.

En 1905, Einstein también utilizó esta idea para explicar algunos fenómenos desconcertantes observados en el efecto fotoeléctrico. Este efecto, que se dio a conocer en las células fotoeléctricas para la apertura de puertas en almacenes y cocheras y en la cámara de televisión, estriba en la observación de que, cuando la luz cae sobre un electrodo metálico, el metal emite electrones. Parece, pues, que el haz de luz es capaz de sacar electrones a! metal. Sin embargo, se observó que, cuando se aumenta la intensidad y, consiguientemente, la energía del haz de luz, la energía del electrón emitido no aumenta, sino que se mantiene. El número de electrones emitidos aumenta, pero se suponía, conforme a la teoría ondulatoria, que, como la energía del haz de luz incidente es mayor, la luz debía ser capaz de sacar electrones con mayor energía y que, por consiguiente, la energía de estos electrones aumentaría proporcionalmente.

El resultado experimental, desconcertante según la teoría ondulatoria, queda en claro si se admite que la luz es absorbida en cuantos, con la energía de un cuanto dada directamente a un electrón. De esta manera, Einstein mostró cómo el efecto fotoeléctrico prueba la absorción de la luz en cuantos, señalando el camino para la incorporación del mismo principio de la teoría de Bohr de emisión y absorción de luz por los átomos. Según la teoría de la relatividad especial de Einstein, cualquier partícula que tenga energía, como la tiene el cuanto de luz, debe también ser portadora de una cantidad definida de fuerza. Esta conclusión recibió apoyo experimental en los estudios efectuados en 1923 por Arthur H. Compton (nacido en 1892) sobre la dispersión de los rayos X, estudios que llevaron al descubrimiento de lo que vino a llamarse efecto Compton. Con esto, la realidad del cuanto de luz fue todavía más definitivamente aceptada por los físicos.

Niels Bohr en la Universidad Lomonosov (1961). Bohr desarrolló el modelo de átomo nuclear de Rutherford estudiando con más detalle el comportamiento de los electrones exteriores y cómo este comportamiento se relacionaba con la emisión o absorción de luz por un gas formado por muchos de tales átomos. A fin de lograr esto, tuvo que apartarse radicalmente en ocasiones de lo que entonces parecían consecuencias firmemente establecidas de las leyes conocidas del electromagnetismo. Foto Agencia AGE

Aunque las ideas de Bohr tuvieron gran éxito y estimularon inmensamente el estudio de los espectros atómicos y moleculares, el cálculo detallado exacto de los niveles de energía de átomos distintos del hidrógeno planteaba una serie de dificultades. Para L920 habían sido analizadas muchas características de los complejos espectros de átomos de muchos electrones, pero existían detalles desconcertantes inclusive acerca de la estructura del relativamente sencillo espectro del sodio y los de los otros metales alcalinos, así como acerca del comportamiento de los espectros cuando los átomos emisores están en un campo magnético (efecto Zeeman). En 1925 se juzgó posible remendar la teoría de Bohr suponiendo que el electrón es más complicado que una simple partícula cargada y posee también una cantidad fija de momento angular, como una peonza, y de momento magnético, como un diminuto imán. Estas propiedades, llamadas giro electrónico, se convirtieron en una parte fundamental firmemente establecida de toda la teoría atómica.

En el decenio que siguió al primer informe de Bohr, en 1913, sobre su modelo de átomo, nadie hizo más que el propio Bohr para mantener la atención de los científicos fija en el hecho de que los principios del modelo estaban lejos de ser completos o satisfactorios. Era evidente que los electrones en los átomos no se comportaban como partículas que se ajustaran a las leyes del movimiento de Newton y se conocían algunas reglas parciales acerca de la naturaleza de la desviación respecto a estas leyes. Era manifiesto que la mecánica clásica necesitaba ser reemplazada por una nueva mecánica del cuanto que coincidiera con la mecánica clásica cuando se aplicara a grandes sistemas y ofreciera resultados distintos pero correctos en su aplicación a sistemas atómicos. Descubrir las leyes de la mecánica cuántica fue el problema decisivo de la física teórica a comienzos de la década de 1920.

Ciclotrón de Lawrence y Livingston para la escisión del átomo. British Museum of Science, Londres. La producción de reacción nuclear  con partículas artificialmente aceleradas fue lograda por primera vez en 1932 por John Douglas Cockcroft y E. T, S. Wallon en el Cavendish Laboratory de Cambridge. Después, el estudio de las reacciones nucleares se efectuó a gran esca/a en muchos laboratorios, con la ayuda de partículas aceleradas en el ciclotrón, según fue primeramente construido por E. O. Lawrence en California en 1931. Foto Cario Bevilacqun.

La solución de este problema llegó desde dos direcciones distintas, sin que se advirtiera al principio que suministraban la misma solución. Louis de Broglie (nacido en 1892} publicó (1924) un informe en el que señaló que, como la luz parece tener una naturaleza dual, mostrándose en ciertos aspectos como una onda y en otros como una partícula, esta dualidad podía aplicarse también a electrones y protones y que estas partículas podían tener también propiedades ondulatorias, Erwin Schródinger (nacido en 1887), de Zurich, adoptó esta idea dos años después y le dio una más definida forma matemática, descubriendo las ecuaciones de la mecánica cuántica en una forma denominada mecánica ondulatoria. Estas ecuaciones constituyeron en adelante la base de los métodos de tratamiento de los sistemas atómicos.

El otro modo de abordar el tema fue iniciado en 1925 por Werner Heisenberg y llevó u la formulación de una mecánica cuántica en la que cantidades físicas estaban representadas por una clase de cantidad matemática denominada matriz. El álgebra de matrices era en aquel tiempo muy poco conocida por la mayoría de los físicos teóricos, hecho que, cuando se combinaba con las innovaciones de los nuevos conceptos, hizo que éstos fueran de muy difícil asimilación.

Para 1927 los nuevos métodos, la mecánica ondulatoria según había sido desarrollada por De Broglie y Schródinger y la mecánica de matrices según había sido desarrollada por Heisenberg, eran ya reconocidos como una misma teoría con dos diferentes mantos matemáticos. Experimentalmente, las nuevas ideas obtuvieron un pronto apoyo con el descubrimiento en 1927 de la difracción del electrón. Se mostró que los electrones, cuando son dispersados por un cristal, se comportan como si su movimiento estuviera gobernado por el asociado movimiento ondulatorio postulado primeramente por Louis de Broglie y son difractados en forma muy parecida a como son difractadas las ondas luminosas por una red de difracción.

Arthur H. Compton en su laboratorio, donde estudió la dispersión de los rayos X. descubriendo el llamado efecto Compton. Foto Agencia AGE.

Las nuevas ideas significaron un completo rompimiento con las ideas de la mecánica clásica. En la teoría que se originó con Newton, el movimiento estaba plenamente determinado por las posiciones iniciales y las velocidades de las partes móviles y las fuerzas que actuaban sobre ellas. Sin embargo, se veía ya que, a nivel atómico, los movimientos eran indeterminados y que la función ondulatoria de Schródinger sirve únicamente para indicar probabilidades o relativas verosimilitudes de los diversos movimientos posibles.4 En 1927, Heisenberg completó el reconocimiento de la naturaleza esencial de los elementos indeterminados de la teoría del cuanto afirmando que tenían su origen en la imposibilidad de hacer ciertas mediciones de una precisión infinitamente grande.

Estas nuevas ideas se revelaron extraordinariamente eficaces en los treinta años siguientes. Les parecieron perfectamente naturales a una nueva generación de físicos y químicos. Pero, en un principio, la incertidumbre fue vigorosamente resistida por muchos físicos teóricos. Por ejemplo, Albert Einstein, al mismo tiempo que reconocía los muchos éxitos del formalismo matemático de la mecánica cuántica, se negó durante el resto de su vida a creer que los aspectos de la indeterminación representan una limitación fundamental y final del conocimiento. Creía, en cambio, que estas ideas representan únicamente una laguna transitoria en nuestra comprensión y esperaba que fuera superada de algún modo por descubrimientos futuros.

La primera consecuencia importante del descubrimiento de las leyes matemáticas de la mecánica cuántica fue que ésta permitió completar en forma muy detallada la teoría de los espectros atómicos y abrió también el camino para una mejor comprensión de la naturaleza del lazo químico entre los átomos en las moléculas. El más sencillo tipo de molécula es la molécula de hidrógeno, formada por el enlace de dos átomos del elemento. Cada átomo de hidrógeno tiene un núcleo consistente en un solo protón, al que está ligado un solo electrón. Hasta el advenimiento de la mecánica del cuanto se desconocía la razón de que estos dos átomos de hidrógeno se unieran para formar una molécula del mismo elemento.


Louis de Broglie. quien publicó un informe en el que señaló que, como la luz parece tener una naturaleza dual, mostrándose en ciertos aspectos como una onda y en otros como una partícula, esta dualidad podía aplicarse también a electrones y protones y que estas partículas podían tener también propiedades ondulatorias. Foto Agencia AGE.

En 1927, Walter Heinrich Heitler (nacido en 1904) y Fritz London (1900-1945), en Zurich, mostraron que debe surgir entre dos átomos una atracción que es peculiar de la mecánica cuántica y no tiene equivalencia en la física clásica. Estas fuerzas de cambio proporcionan no solamente una comprensión cuantitativa del enlace en la molécula de hidrógeno, sino también un cuadro cualitativo de la naturaleza de los lazos químicos en otras moléculas más complejas, así como una comprensión de las razones de la valencia química.5 La nueva teoría también ofreció una clara explicación de la fundamental distinción estructural entre sólidos aisladores y sólidos que conducen electricidad.

La nueva teoría aclaró la base fundamental del sistema periódico de los elementos. Las regularidades que muestra el sistema periódico reflejan indudablemente algún principio básico más fundamental. En 1924, Bohr intentó explicar el sistema periódico en función de su modelo del átomo, pero, si bien andaba indiscutiblemente por buen camino, las ambigüedades inherentes a su teoría hicieron imposible una explicación definitiva. Durante los años siguientes, el descubrimiento del giro electrónico, el principio de exclusión y la mecánica cuántica de Schródinger y Heisenberg permitieron resolver ambigüedades.

Los profesores Jan Aler y Max Steenbeck con Werner Heisenberg, el cual llegó u la formulación de una mecánica cuántica en la que cantidades físicas estaban representadas por una clase de cantidad matemática denominada matriz. Kola Agencia Camera Press.

Según estas nuevas ideas, el átomo más sencillo es el del hidrógeno, con un electrón ligado al núcleo. Este electrón estará caracterizado, en su estado de más baja energía, por el número cuántico n=1. En el átomo siguiente por orden de más peso, el de helio, hay un electrón adicional que tiene el mismo número cuántico, pero este segundo electrón estará girando en la dirección opuesta a la del primero.

 Conforme al principio de exclusión propuesto por Wotfgang Pauli (1900-1958) en 1925, no pueden agregarse más electrones con n=1 y se dice que esta envoltura del núcleo está cerrada.6 Los otros gases inertes —neón, argón, criptón, xenón comparten esta propiedad de tener cerrada su última envoltura electrónica. En el átomo siguiente por orden de más peso, el litio, el tercer electrón debe estar en la envoltura siguiente, caracterizada por el número cuántico n -1. Los metales alcalinos —litio, sodio, potasio, rubidio, cesio y francio— comparten esta propiedad de tener un electrón en la envoltura superior inmediata, encima de la envoltura cerrada característica de los gases inertes.

 Es esta similitud en la configuración de los electrones más exteriores lo que produce la similitud en las propiedades químicas de estos grupos de elementos, pues los electrones más exteriores son los más efectivos en las acciones reciprocas que dan origen a las reacciones químicas. El principio de exclusión, unido a las ecuaciones de la mecánica cuántica, muestra que esta segunda envoltura, n = 2, puede contener ocho electrones. Cuando esta segunda envoltura queda cerrada, el número total de electrones es de 2, 8, 10.

El elemento con el número atómico 10 es el neón, el segundo gas inerte. El elemento siguiente es el metal alcalino sodio, con un electrón en la envoltura n =3. La continuación de este razonamiento condujo a una comprensión de por qué todos los otros grupos de elementos, como los de la tierra alcalina y las tierras raras, tenían propiedades químicas análogas.


Wolfgang Paul  que propuso en 1925 un principio de exclusión según el cual no pueden agregarse más electrones con n=1 y se dice que esta envoltura del núcleo está cerrada. Los otros gases inertes comparten esta propiedad de tener cerrada su última envoltura electrónica. Foto Agencia AGF.

Los lazos entre la química y la física forjados por la teoría de Bohr se fortalecieron con el desarrollo de I u mecánica del cuanto. En el decenio siguiente se avanzó a grandes pasos en la química fundamental, pues numerosos investigadores aprovecharon el importante aumento en los conocimientos que permitió la nueva teoría. La química teórica moderna y la física del estado sólido consisten en buena parte en el sometimiento de esta teoría a una explotación continuada.

Aparato con el que Chadwick descubrió el neutrón. El año 1932 tuvo importancia en el desarrollo de la física nuclear. Aquel año James Chadwick descubrió la existencia de una tercera clase de partícula fundamental,  carente de carga eléctrica y can una masa que era aproximadamente la del protón. A causa de su carácter eléctricamente neutro, Chadwick llamó neutrón a esta partícula. Archivo Antonio Martín.


Carl D. Anderson,  descubridor de los positrones. Durante el año 1932 fueron descubiertos un isótopo pesado del hidrógeno, el deuterio, por H. C. Urey en la Universidad de Columbia y una nueva clase de partícula, el positrón, por Carl D. Anderson en California. Foto Agencia AGE.

Primera etapa de la evolución de la física nuclear

Los progresos en la física y la química iniciados por la teoría de Bohr y coronados con los éxitos de la mecánica del cuanto forman el tema conocido como teoría atómica, que trata de los aspectos del átomo fuera del núcleo, pero sin considerar la estructura interna del núcleo mismo. En la época de los grandes éxitos de la física y la química atómicas, a fines de la década de 1920, poco se había hecho para ampliar en el estudio del núcleo mismo la obra de Rutherford. Ya en 1919, Rutherford había conseguido transformar un tipo de núcleo en otro. Bombardeó gas nitrógeno con partículas alfa y averiguó que se emitían protones de alta energía, indicando que una partícula alfa entra en un núcleo de nitrógeno, en el que A =14 y Z= 7, y hace saltar un protón, lo cual deja un isótopo de oxigeno de masa 17. Sin embargo, el rendimiento total de tales partículas era muy pequeño, de modo que el siguiente trabajo eficaz en relación con las reacciones nucleares tuvo que esperar la creación de poderosos mecanismos eléctricos, capaces de acelerar gran número de protones y partículas alfa hasta energías de varios millones de electronvoltios.

En el afán de llegar a las consecuencias de tos nuevos descubrimientos en la física atómica durante la década de 1920, la física del núcleo fue en gran parte desdeñada. Pero cuando hacia 19301a teoría atómica pareció bien afirmada, muchos físicos se volvieron hacia el estudio del núcleo y la creación de los mecanismos aceleradores necesarios.

La producción de reacción nuclear con partículas artificialmente aceleradas fue lograda por primera vez en 1932 por John Douglas Cockcroft (nacido en 1897) y L. T. S. Walton (nacido en 1903) en el Cavendish Laboratory de Cambridge. Después, el estudio de las reacciones nucleares reefectuó a gran escala en muchos laboratorios, con la ayuda de partículas aceleradas en el ciclotrón, según fue primeramente construido por E. O. Lawrence (1901-1958) en California en 1931, y en las máquinas de cintura electrostática, del tipo introducido en la misma época por R. J. Van de Graaf (nacido en 1901) en Princeton (EE. UU.).


Enrico Fermi en su laboratorio de la Universidad de Roma. La naturaleza del proceso por el que átomos beta activos emiten partículas beta (electrones de alta energía) siguió siendo un misterio hasta 1934,  fecha en que Enrico Fermi publicó el tratamiento teórico que constituyó la base de todo el subsiguiente trabajo sobre el tema. Foto Photri/Agencia Salmer.

El año 1932 tuvo importancia en el desarrollo de la física nuclear. Aquel año. James Chadwick descubrió la existencia de una tercera clase de partícula fundamental, carente de carga eléctrica y con una masa que era aproximadamente la del protón. A causa de su carácter eléctricamente neutro. Chadwick llamó neutrón a esta partícula. Se señaló muy pronto que muchas incógnitas podían ser explicadas mediante la suposición de que el núcleo atómico consiste en protones y neutrones.


Edward Teller, quien en 1936 ofreció, junto a George Gamow, formas matemáticas más generales para el proceso. Esta teoría se reveló útil durante veinte años para relacionar entre sí una gran variedad de detalles acerca de la desintcgración beta. Foto Agencia Camera  Press.

En el cuarto de siglo siguiente, esta tesis sobre la constitución del núcleo fue tan abrumadoramente eficaz que eliminó cualquier duda sobre su exactitud. Aunque posteriormente se descubrieron otras clases de partículas fundamentales, siguió siendo cierto que toda materia ordinaria está compuesta únicamente por tres clases de partículas: protones, neutrones y electrones, De este modo, los diversos elementos químicos están caracterizados por la posesión de un número que contiene Z protones y K neutrones. El número de masa A es igual a K+Z. Alrededor de este núcleo, existe una nube de carga eléctrica que contiene Z electrones.

También durante este mismo año fueron descubiertos un isótopo pesado del hidrógeno, el deuterio, por H. C. Urey (nacido en 1893} en la Universidad de Columbia (EE. UU.) y una nueva clase de partícula, el positrón, por Cari D. Anderson (nacido en 1905) en California. El descubrimiento del deuterio o hidrógeno pesado tuvo particular importancia para la física nuclear, por cuanto su núcleo, llamado deuterón. Consiste únicamente en un neutrón y un protón y debe tener, por consiguiente, la estructura nuclear más sencilla posible: un simple nexo entre un protón y un neutrón. Los deuterones pueden ser acelerados hasta altas energías en ciclotrones y otros aceleradores y utilizados para la producción de reacciones nucleares cuando bombardean blancos de diversos elementos. Si llamamos £/ al deuterón, n al neutrón, z al protón y  a  la partícula alfa, podemos distinguir reacciones  en las que el deuterón entra en el núcleo del blanco y. respectivamente, hay una emisión de un neutrón, un protón o una partícula alfa.

Unos pocos años después de 1932 se habían estudiado con considerable detalle muchas de tales reacciones nucleares. El descubrimiento del positrón fue importante porque constituyó la primera de las partículas de existencia transitoria que se descubría y porque confirmó algunas predicciones peculiares que surgían de la teoría (1928) de A. M. Dirac (nacido en 1902), en la que la mecánica cuántica de un electrón aislado se relacionaba con la teoría de la relatividad especial de Einstein. La teoría de Dirac llevó a la conclusión de que, por cada clase de partícula elemental (la que no está estructuralmente formada por otras partículas), debe existir una antipartícula, su opuesta en diversos sentidos. Para el electrón, la antipartícula es el positrón, una partícula que tiene la misma masa que el electrón y el mismo valor numérico de carga eléctrica, pero de clase positiva en lugar de negativa.

Según la teoría de Dirac, un positrón y un electrón pueden aniquilarse mutuamente en una colisión y, en lugar de ellos, se producen dos cuantos de radiación gamma. Como hay tantos electrones presentes en la materia ordinaria, un positrón, formado de alguna manera, sólo puede tener una existencia en extremo efímera antes de ser aniquilado en un encuentro con uno de los muchos electrones de su ambiente. Por esta razón, los positrones no pueden representar ningún papel en la estructura de la materia en condiciones ordinarias. Los positrones descubiertos por Anderson son generados corno resultado del bombardeo de la atmósfera superior de la Tierra por rayos cósmicos de alta energía y se ha visto que sufren la clase de procesos de aniquilamiento predichos por la teoría de Dirac. Este descubrimiento constituyó un poderoso estímulo para más intensivos estudios de la radiación cósmica y de la física de partículas de alta energía, que se convirtió en una rama de la física de inmensa importancia en las décadas de 1940 y 1950.

Para fines de la década de 1930, el progreso en la comprensión de la materia nuclear y en el campo de las partículas elementales de la naturaleza se había producido tan rápidamente y en tantos frentes que es sumamente difícil ofrecer un retrato completo o siquiera unidimensional de estos importantes acontecimientos. Uno de los grandes problemas de la teoría nuclear era la comprensión de la radiactividad. El mecanismo en virtud del cual se emiten partículas alfa recibió pronto una explicación sencilla de acuerdo con la nueva teoría del cuanto, pero la naturaleza del proceso por el que átomos radiactivos emiten partículas beta (electrones de alta energía) siguió siendo un misterio hasta 1934, fecha en que Enrice Fermi (1901-1954) publicó el tratamiento teórico que constituyó la base de todo el subsiguiente trabajo sobre el tema. El problema de la emisión beta es distinto del de la emisión alfa en dos aspectos. Por un lado, hay sólidas razones teóricas para creer que los núcleos atómicos no contienen electrón alguno. Consiguientemente, una parte del proceso de emisión debe suponer la creación del electrón que va a ser emitido con algo de la carga y energía (masa) que está ya presente en el núcleo. Si bien los físicos poseían ya algunas ideas referentes a la creación y la destrucción de partículas gracias a la teoría de Dirac y su confirmación en el descubrimiento del positrón por Anderson, tales ideas eran nuevas y poco conocidas a comienzos de la década de 1930.

El otro gran misterio en este terreno era el espectro de energía continua de los electrones emitidos. La prueba experimental indicaba que todos los núcleos beta activos de una cierta clase son semejantes entre sí antes de la emisión y después de la emisión. Por consiguiente, tenía que disponerse de cierta definida cantidad de energía para la emisión; de este modo, todos los electrones emitidos deberían (conforme al principio de la conservación de la energía) surgir con una energía igual. Pero, en lugar de esto, el trabajo experimental mostraba que de hecho surgen con una amplia distribución estadística de diferentes energías, que van de un valor máximo a todo lo próximo a cero que permiten alcanzar las dificultades experimentales.

La solución de este enigma fue originalmente presentada por W. Pauli en 1931, en una indicación de que tal vez se emiten dos partículas en la desintegración beta y de que, en cada caso, la misma energía total se divide entre ellas de diferentes modos en diferentes ocurrencias individuales de desintegración beta, siendo una de las partículas de tal naturaleza que escapa a la percepción directa. Así es como la prueba de la existencia de la nueva partícula se convirtió en la necesidad de explicar la energía que faltaba, al modo en que un negociante puede deducir la existencia de un ladrón al que nunca vio al advertir la falta de una cantidad de efectivo en su caja.

Para llevar energía y escapar a la detección, la partícula debía ser eléctricamente neutra y tener menos masa que la de un electrón. Enrice Fermi llamó a esta hipotética nueva partícula neutrino, pequeño neutrón en italiano. De acuerdo con esto, el proceso básico era, pues, el siguiente: uno de los neutrones en el núcleo radiactivo debe tener cierta probabilidad de convertirse en un protón, mientras crea simultáneamente un electrón y un neutrino que son entonces expulsados del núcleo. Con empleo del formalismo matemático de la mecánica cuántica, Fermi formuló ciertos postulados acerca de este proceso que fueron muy válidos al ofrecer una detallada explicación de la forma del espectro continuo y de los factores que determinan el ritmo con que la desintegración beta se produce.

En los años que siguieron a 1934 esta teoría tuvo un extraordinario desarrollo. George Gamow (nacido en 1904) y Edward Teller (nacido en 1908) ofrecieron en 1936 formas matemáticas más generales para el proceso. Esta teoría se reveló útil durante veinte años para relacionar entre sí una gran variedad de detalles acerca de la desintegración beta, hasta que, en 1956, T. D. Lee y C. N. Yang descubrieron que toda la estructura se había levantado sobre una base que partía de un supuesto inexacto, conocido como la conservación de la paridad. Esto pareció al principio que complicaba las cosas, al introducir muchas nuevas posibilidades teóricas, pero más adelante se vio que entre estas nuevas posibilidades hay algunas que permiten completar de modo muy satisfactorio la explicación de la descomposición por emisión de partículas beta.

Estabilidad nuclear, radiactividad artificial y fisión

Los átomos radiactivos que existen de un modo natural son, pues, energéticamente inestables y se desintegran de dos modos: por emisión de partículas alfa y por emisión de partículas beta y neutrinos conforme al proceso que se acaba de describir. La mayoría de los átomos conocidos en la naturaleza son en apariencia totalmente estables y no se desintegran de ninguno de los dos modos. Se plantean, por consiguiente, estas dos cuestiones: ¿que determina qué clase de núcleos son estables? Y ¿hay otros modos de desintegración que eliminen la inestabilidad? Buena parte de la investigación en la física nuclear en las décadas de 1930 y 1940 giró alrededor del estudio de estas cuestiones.

El estudio del problema general de la estabilidad nuclear avanzó mucho durante estos años gracias a la creación de espectrógrafos de masa de alta precisión. Con estos instrumentos, las masas relativas de la mayoría de las especies atómicas llegaron a ser conocidas con una precisión mayor que la de uno en un millón. Inclusive los trabajos anteriores fueron lo bastante exactos para indicar que la masa de un átomo es definidamente inferior a la suma de las masas de sus elementos constituyentes por separado, en general en cantidades inferiores al uno por ciento. Esta diferencia es llamada defecto de masa.

El defecto de masa es una consecuencia directa de la equivalencia de masa y energía (E=mc2), según fue descubierta por Einstein en 1905. Cuando se forma un átomo por la unión de sus partes constituyentes, se libera energía que se lleva algo de la masa consigo, con el resultado de que el átomo tiene menos masa que los materiales con que está hecho.

Irene y Federico J. Curie según pintura de U. Singer (1959).

Si, por otro lado, un átomo es inestable y se desintegra espontáneamente en átomos y partículas más ligeras con liberación de energía, el átomo inicial debe tener una masa mayor que la suma de las masas de los materiales en los que se desintegra.

La medición precisa de las masas atómicas da, pues, una indicación directa de su energía de formación o desintegración; tal es la razón de que se continuaran dedicando tantos esfuerzos a la medición de masas atómicas con la máxima precisión posible.

Otto Hahn y su colaboradora Lise Meitner. En 1938 dos químicos, Otto Hahn y F. Strassmann, mostraron que la mayor parte de la actividad debida a la reacción de los neutrones con el uranio no significaba la esperada formación de estos nuevos elementos. Se debía, en lugar de ello, a un inopinado nuevo proceso llamado fisión. En él, el núcleo de uranio, hecho más inestable por la toma de un neutrón, se divide en dos partes aproximadamente iguales que se alejan la una de la otra a gran velocidad. Servicio Documental Planeta.

La suma de las masas de un neutrón y un átomo de hidrógeno es de 2,0171311 unidades de masa atómica, que exceden de la masa del átomo de deuterio en 0,0023886, exceso proporcional a la cantidad de energía liberada cuando un neutrón es capturado por un átomo de hidrógeno para formar un átomo de deuterio. Análogamente, la masa de dos átomos de deuterio es de 4,0294850. que supera a la de un ordinario átomo de helio en 0,025611. Esto es proporcional a la cantidad de energía que se liberaría si se hallara el modo de que los átomos de deuterio se unieran para formar helio. Son reacciones como éstas las que ocurren en el Sol y las estrellas y mantienen su radiación y las que se producen en las bombas de hidrógeno.

Con la acumulación del conocimiento de gran número de masas precisas, las diferencias de masa en diversas reacciones nucleares podían ser correlacionadas con la liberación de energía experimentalmente medida. De este modo, treinta años después del descubrimiento teórico de Einstein de la equivalencia entre masa y energía, este principio quedó cuantitativamente confirmado con mucha exactitud en docenas de reacciones nucleares.

Las tendencias de las masas medidas muestran que los núcleos se hacen inestables excepto en la estrecha banda de valores conexos Z, N que caracterizan a los núcleos que existen naturalmente. En un tipo la n de reacción, se toma una partícula allfa (consistente en dos protones y dos neutrones) y se emite un neutrón, de modo que el resultado del bombardeo de un núcleo que contiene Z protones y V neutrones, Z= N) es (Z=2, .V = 1). Si este núcleo se sitúa fuera de la banda de núcleos estables, puede ser radiactivo, es decir, puede desintegrarse espontáneamente, En 1934, Irene Curie (1897-1956) y su marido Krédéric Joliot-Curie (1900-1958), en París, descubrieron casos en los que e! producto era radiactivo, pero emitía positrones en lugar de electrones.

Se hizo así manifiesto que el proceso de descomposición beta podía incluir una emisión positrón-neutrino por cambio de un protón en un neutrón del mismo modo que el proceso originalmente descubierto de una emisión electrón neutrino por cambio de un neutrón en un protón. Lo que ocurre en un caso particular depende de que el núcleo sea inestable por tener demasiados protones o demasiados neutrones. Durante los años siguientes, fue posible hacer isótopos radiactivos artificiales de los dos tipos para casi todos los elementos. Estos isótopos se revelaron valiosísimos en química y biología.

Aparte de su importancia intrínseca, los estudios sobre la radiactividad artificial llevaron en pocos años al descubrimiento de la fisión nuclear, la reacción en cadena del neutrón y el desarrollo de armas nucleares. Esta serie de acontecimientos comenzó en 1934 cuando Fermi y sus colaboradores, trabajando en Roma, hicieron un estudio sistemático de los isótopos radiactivos artificiales producidos por toma de neutrones en diversos elementos. Como este proceso crea un núcleo que contiene demasiados neutrones para ser estable, la clase de desintegración beta que se produce es la emisión de electrón - neutrino, en que uno de los neutrones excedentes se cambia en un protón.

Entre los elementos bombardeados con neutrones por Fermi y su grupo estaba el uranio. Si se agrega un neutrón a un núcleo se pone al uranio entre los elementos inestables por exceso de neutrones. Consiguientemente, si la estabilidad se adquiere con emisión beta, será expulsado un electrón y el número atómico quedará aumentado en una unidad. Al bombardear uranio con neutrones, cabía esperar la producción de átomos más allá del uranio, los elementos transuránicos, que no existen en la naturaleza. El grupo de Fermi encontró gran variedad de materiales radiactivos producidos de esta manera; tales materiales fueron considerados en un principio como los nuevos elementos transuránicos.

Pero en 1938 dos químicos, Otto Hahn y F. Strassmann, mostraron que la mayor parte de la actividad debida a la reacción de los neutrones con el uranio no significaba la esperada formación de esos nuevos elementos. Se debía, en lugar de ello, a un inopinado nuevo proceso llamado fisión. En él, el núcleo de uranio, hecho muy inestable por la toma de un neutrón, se divide en dos partes aproximadamente iguales que se alejan la una de la otra a gran velocidad.

Nuevas investigaciones revelaron que los productos directos de la fisión no son los mismos en cada caso de desintegración; al contrario, se forma una gran variedad de productos de fisión. Todos ellos contienen un exceso de neutrones y, por tanto, son radiactivos, con la subsiguiente emisión de partículas beta negativas.

Una importante característica del proceso de fisión es que, además de los dos fragmentos principales, hay como promedio entre dos y tres neutrones que quedan libres. Este hecho hace posibles las bombas atómicas y la regulada liberación de energía que permite el uranio. Las fuentes usuales de neutrones son costosas y su producción no es importante. En el proceso de fisión se utiliza un neutrón para que cause la fisión y unos tres quedan libres, de modo que hay una ganancia de dos. Por consiguiente, si estos dos pueden ser plenamente utilizados para que produzcan fisión, la siguiente etapa nos dará cuatro neutrones, la siguiente ocho y así sucesivamente. Este proceso multiplicativo es conocido como reacción en cadena y ofrece la posibilidad de producir muy poderosas fuentes de neutrones y de liberar enormes cantidades de energía.


Reactor atómico alemán instalado durante la segunda guerra mundial en Heigcrloch. 1. cubos de uranio; 2, agua pesada; 3, cámara de grafito: 4, soporte de roble; 5. pozo de hormigón, y 6, agua común. Foto Agencia Camera Press.

Estas ideas básicas eran muy conocidas por los físicos de muchos países a los pocos meses del descubrimiento de la fisión, es decir, hacia el verano de 1940, cuando los ejércitos de Hitler habían ocupado el continente europeo y parecía inminente una invasión de Gran Bretaña. Se hizo inmediatamente manifiesto que podía utilizarse una reacción en cadena para fabricar un arma explosiva y en varios países se estaba considerando esta posibilidad.

Aunque eran conocidas las ideas básicas que fundamentaban la posibilidad de que una explosión siguiera a la reacción en cadena debida a la fisión del uranio, había muy poca precisión en lo que se sabía acerca de muchos de los parámetros cuantitativos del proceso. Se ignoraba si podría realmente producirse una explosión y qué tamaño mínimo exigiría una explosión así. Lo que se sabía era que, inclusive para contestar a estas preguntas, haría falta un trabajo experimental de grandes dimensiones, con materiales costosos y el empleo de operarios muy calificados. Si el proyecto de crear una bomba de fisión de uranio era realmente posible, sólo podría serlo al costo de un enorme esfuerzo cuyo éxito no cabría asegurar por adelantado.

En el verano de 1940 se había impuesto ya el secreto militar sobre esta clase de tareas en diversos países. En Alemania, los trabajos fueron puestos bajo la dirección de Werner Heisenberg; se progresó poco, sin embargo, en los cinco años que quedaban del régimen de Hitler. En Gran Bretaña, el proyecto también fue iniciado, pero con la intensificación de los ataques aéreos alemanes se hizo manifiesto que una empresa de tanta magnitud como la necesaria no podía ser llevada a cabo en el país. En el otoño de 1941 se llegó a un acuerdo para que los británicos aportaran su talento científico a un esfuerzo combinado con Estados Unidos para realizar un gran proyecto en suelo norteamericano. Con la entrada de Estados Unidos en la guerra a fines de 1941, estos planes recibieron prioridad, con el resultado de que la primera bomba de fisión fue probada en junio de 1945 en Los Álamos, Nuevo México (Estados Unidos). No se hizo público cuándo la Unión Soviética comenzó sus trabajos en este campo; sin embargo, los soviéticos probaron con éxito una bomba de este tipo aproximadamente tres años después.

Por mucho que fuera el alcance de estos acontecimientos en la tecnología militar y su influencia en la política internacional, no agregaron directamente gran cosa al conocimiento de la ciencia básica. Tuvieron algunos efectos indirectos, pues desde entonces los gobiernos se mostraron más dispuestos que antes a gastar dinero en la investigación científica. También los reactores de uranio, construidos para el suministro del elemento transuránico plutonio (Z=94), otro material de bomba de fisión, proporcionaron ilimitados abastecimientos de materiales radiactivos como derivados que tuvieron aplicación en la investigación en la química, la biología y muchos campos de la tecnología. A comienzos de la década de 1950 se habían creado reactores nucleares que, utilizando la regulada reacción en cadena de la fisión del uranio como fuente de calor que moviera turbinas de vapor, fueron empleados en Estados Unidos para propulsar submarinos y en diversos países, principalmente Gran Bretaña y la Unión Soviética, para producir energía eléctrica.

Criogenia, física de los sólidos, nuevas partículas elementales

En el período de posguerra se desarrollaron mucho tres grandes campos de investigación experimental. Fueron la criogenia o estudio de las propiedades de la materia a temperaturas extremadamente bajas; la física del estado sólido, en la que los resultados de datos experimentales como los espectros de rayos X se combinan con la mecánica cuántica de los electrones para ofrecer nuevas percepciones acerca de metales, semiconductores y aisladores; y el descubrimiento y estudio de partículas de alta energía en los rayos cósmicos y por medio de producción artificial en grandes aceleradores de partículas eléctricas.

Muchos de los descubrimientos fundamentales en estos campos se habían hecho anteriormente durante el siglo. En el período de posguerra se explotaron estos descubrimientos anteriores, se hicieron muchos nuevos descubrimientos y aumentó enormemente en estos campos la actividad científica total.

El estudio de las propiedades térmicas de la materia hasta muy bajas temperaturas es necesario para obtener información sobre su comportamiento químico a temperaturas ordinarias. Este hecho sirvió largo tiempo como poderoso estímulo para la investigación criogénica. Además, hay dos propiedades peculiares de materiales especiales que se manifiestan únicamente a temperaturas en las que la agitación térmica de las partículas queda muy reducida. Ciertos metales muestran el fenómeno conocido como superconductividad cuando están por debajo de cierta temperatura. En este estado, toda resistencia al paso de la corriente eléctrica se desvanece, de modo que una corriente eléctrica, una vez iniciada, discurre indefinidamente sin apreciable disminución. 1:1 efecto es más que una simple reducción a cero de la resistencia eléctrica, pues está acompañado por un desusado comportamiento magnético conocido, en recuerdo de su descubridor Walther Meissner (nacido en 1882), como efecto Meissner. A presiones normales, el helio se hace liquido a 4°K y luego, bruscamente, cuando es enfriado por debajo de 2,18°K, asume una forma líquida diferente, llamada superfluida porque se caracteriza por unas extraordinarias propiedades de flujo, Su comportamiento es como si la viscosidad del fluido se hiciera bruscamente cero, de un modo semejante a la desaparición de la resistencia eléctrica de un metal superconductor; sin embargo, el Huido también muestra otras peculiares propiedades de flujo que reclaman modos de descripción más ajustados que afirmar meramente que tiene una viscosidad cero. Se dedicó gran cantidad de trabajo experimental y teórico al estudio de los estados superconductores y superfluidos, pero en 1958 no podía decirse todavía que los principios básicos estuvieran bien comprendidos.

En el campo de la física del estado sólido, se idearon muchas nuevas técnicas experimentales para medir la microcstructura de la materia sólida. Por ejemplo, la creación del microscopio electrónico facilitó mucho el estudio de los fenómenos de superficie y permitió abordar problemas como la migración de átomos de tungsteno en la superficie de un cristal de tungsteno. La técnica de la resonancia magnética nuclear, originalmente creada por físicos nucleares, permitió a los físicos del estado sólido explorar los campos magnéticos internos que existen en sólidos y moléculas. El bien establecido método de estudiar la estructura de cristales por difracción de rayos X fue complementado por la difracción de neutrones. Una ventaja de este nuevo método estriba en que, en contraste con la difracción de rayos X, posibilita la identificación de la posición de átomos ligeros como los del hidrógeno en un cristal que contiene átomos pesados.

El método del estudio cristalográfico por medio de rayos X proporcionó los medios de determinar el detallado ordenamiento de los átomos en los cristales. Como el ordenamiento de los átomos en una molécula grande no se ve muy afectado por la circunstancia de que la molécula se halle en estado cristalino, la difracción de rayos X se convirtió de modo más general en un instrumento para el estudio de la estructura de moléculas complicadas. En este campo la explotación de un descubrimiento básico ha llegado a transformar la cristalografía estructural en una especialidad profesional por propio derecho, con distintas zonas de especialización dentro de ella, según el operador estuviera interesado en materiales amorfos como el vidrio y polímeros orgánicos, en metales y aleaciones, en silicatos o en proteínas y otros compuestos macromoleculares de importancia bioquímica.

La cristalografía por medio de rayos X progresaba rápidamente hacia la detallada determinación de la estructura de las proteínas y de los ácidos desoxirribonucleicos, que parecen ser la sustancia que determina los modos de vída, el desarrollo y la herencia de la mayoría de las cosas vivas. (Véase el capítulo I de la sección III.).

Para los físicos, una de las más interesantes nuevas fronteras que debían conquistarse era el estudio de toda una clase de partículas de alta energía cuya presencia había sido advertida por primera vez en los rayos cósmicos. El campo de trabajo tuvo su origen en la sugerencia, formulada por H. Yukuwa en 1935, de que la explicación de las fuerzas que mantienen unido al núcleo atómico sería facilitada suponiendo la existencia de un nuevo tipo de partícula, intermedia en masa entre los electrones y los 1 836 veces mayores nucleones. Como intermedias en masa, estas partículas fueron llamadas mesones. Dos años después, la hipótesis de Yukawa pareció tener una feliz confirmación cuando, de modo independiente, se descubrieron tales mesones en los rayos cósmicos. Sin embargo, pronto resultó que la historia era más complicada de lo que pareció en un principio, porque se vio que estos mesones experimentalmente descubiertos reaccionaban tan débilmente frente a los núcleos que era imposible fueran los agentes de la interacción nucleón-nucleón para la que Yukawa había postulado su existencia. Esto significaba que la idea de Yukawa era errónea o que quedaba por descubrir otra clase de mesón.

La guerra originó una larga pausa durante la que los físicos no pudieron seguir afrontando este dilema. Pasó un decenio entero hasta el descubrimiento en 1947 de la otra clase de mesones de fuerte acción recíproca con el núcleo que se comportan según Yukawa había postulado. Fueron hallados en rayos cósmicos a gran altitud, mientras que los encontrados anteriormente eran especialmente abundantes a altitudes inferiores en la atmósfera terrestre.

Los mesones se convirtieron en objeto de estudio intensivo para los físicos del mundo entero. Para distinguirlos, los que existen a grandes altitudes, que muestran una fuerte acción recíproca con los nucleones, son llamados mesones n o piones, mientras que los que se encuentran a bajas altitudes y tienen una acción recíproca débil con los nucleones reciben el nombre de mesones p o muones. Se vio que los piones eran de tres tipos: los eléctricamente neutros, los que tienen una carga eléctrica positiva y los de carga negativa, del mismo valor que la de un electrón. Los piones positivos y los piones negativos parecen tener la misma masa, 273 veces mayor que la del electrón, pero el pión neutro tiene una masa menor, sólo 264 veces mayor que la electrónica. Los muones siempre están cargados, positiva o negativamente, y el valor de su carga es el mismo que el de la carga del electrón. No se han hallado pruebas de un muón neutro. Los muones tanto positivos como negativos tienen una masa 206,8 veces superior a la del electrón, claramente inferior a la masa de los piones neutros o cargados.

Los piones y muones son todos ellos inestables y se desintegran espontáneamente en otras partículas en ínfimas fracciones de segundo. Por esta razón no pueden ser la radiación cósmica primaria. Se piensa más bien que la radiación cósmica primaria consiste principalmente en protones de alta energía con un componente menor de núcleos de alta energía de diversas clases de átomos ligeros. Determinar cómo estos núcleos obtienen su energía y de dónde vienen era uno de los grandes problemas no resuellos de la astronomía. Al llegar a las capas exteriores de la atmósfera, chocan con núcleos de estos átomos y generan piones por procesos que, en 1948, fueron reproducidos en el laboratorio con el gran sincrociclotrón de Berkeley, California (EE. UU.).

Los piones cargados se desintegran en vuelo espontáneamente en una millonésima de segundo, dando origen a muones de la misma carga y presumiblemente a neutrinos y antineutrinos. Los piones neutros tienen una vida un millón de veces más breve, desintegrándose en rayos gamma o en rayos gamma y pares electrón-positrón. Los muones cargados se desintegran a su vez para transformarse en electrones o positrones acompañados por pares neutrino-antineutrino. Lo hacen a un ritmo cien veces más lento que el de la descomposición de los piones cargados, de modo que los muones tienen una vida media de 2,2 microsegundos.

Justo cuando los físicos estaban determinando las relaciones y propiedades de estos mesones, el cuadro experimentó una complicación más con el descubrimiento de otras varias clases de partículas inestables en la radiación cósmica. Son las partículas cargadas o sin carga K o kayones, con aproximadamente unas 966 veces la masa del electrón; la partícula sin carga lambda (Au), con la masa de unos 2 181 electrones y, por tanto, con más masa que los protones y neutrones normales; las partículas cargadas (±) y neutras sigma , de masas unas 2 330 veces mayores que la de un electrón; y probablemente otras. Las que tienen masas que exceden la de los protones y neutrones normales son llamadas hiperones, de modo quhayhiperones A, L - . £ -, de otras clases. Los mesones incluyen los kayones y los diversos piones y muones. Finalmente, en 1955 fue descubierto en Bcrkeley, por Emilio Segre (nacido en 1905) y sus colaboradores, el protón negativo.

Esta inopinada riqueza de partículas inestables planteó nuevos problemas a la investigación experimental y teórica. En un principio el estudio experimental fue detenido por el reducidísimo número de tales partículas que existen en la radiación cósmica natural. En 1930 la física nuclear había estado limitada de un modo análogo. Las fuentes de partículas radiactivas naturales que utilizó Rutherford eran demasiado débiles para que fueran posibles nuevos avances de importancia. La creación del ciclotrón y otros aceleradores permitió el empleo de intensos haces de protones, deuterones y partículas alfa y, con los resultados de experimentos que utilizaron tales haces, se descubrieron las propiedades de estas partículas. Consiguientemente, se estaban construyendo grandes aceleradores para producir haces de las nuevas partículas inestables y posibilitar, por medio de experimentos análogos, la determinación de sus propiedades.

El conocimiento de la materia que se desarrolló durante la primera mitad del siglo xx fue lo bastante completo para que sirviera de base fundamental a toda la química, toda la física atómica y la mayor parte de la física nuclear. Pero no proporcionó aún una teoría definitiva de la materia. El problema de por que partículas de ciertas masas son estables y oirás no y el estudio de las características de estas partículas y de sus acciones recíprocas constituían el principal obstáculo en la busca de esta teoría definitiva.

¡Error! No se encuentran elementos de tabla de ilustraciones.tudios de la superficie y edad de la Tierra

La nueva teoría de la materia originó una nueva visión de la naturaleza de la Tierra y llevó a la unidad en el estudio de su superficie, su atmósfera y su interior, Comenzó a transformar la geología de una ciencia principalmente descriptiva en otra experimental y teórica, aunque, mediado el siglo, buena parte del conocimiento de la Tierra se mantenía en el nivel descriptivo.

Al comienzo del siglo XX, la descripción y la clasificación de las rocas estaban muy avanzadas. Si bien la geología era una recién llegada entre las ciencias físicas y la revisión de las nociones antiguas y medievales de la Tierra no comenzó hasta fines del siglo XVIII, los importantes trabajos en paleontología y petrografía durante el siglo XIX habían asentado bien estas disciplinas en gran parte descriptivas.

En paleontología, el biólogo francés Georges Cuvier (1769-1832) encabezó la marcha al mostrar cómo trozos de huesos hallados en yacimientos de yeso podían ser combinados con el conocimiento de la anatomía para reconstruir la forma de un animal nunca visto por el hombre. Como resultado de las tareas de paleontólogos del siglo XIX, organismos extintos fueron clasificados en especies, géneros y órdenes y dieron una nueva dimensión a la biología descriptiva. En combinación con la. gran síntesis de datos biológicos que ofreció Darwin en su El origen de las especies, este detallado y tedioso trabajo tuvo una repercusión incalculable en el concepto del hombre acerca de su lugar en la naturaleza.

Charles Lyell según grabado de la época. Uno de los grandes problemas de la geología es la cuestión de la edad de la Tierra. Al comienzo del siglo XIX; la mayoría de los hombres del mundo cristiano, incluidos tos científicos, aceptaron la opinión de que la Tierra tenia sólo unos 6 000 años de existencia. La obra de los grandes geólogos precursores James Hutton y Charles Lyell ayudó a liberar a la ciencia de esta embarazosa opinión. Foto Agencia AGE.

En petrografía, la descripción y la clasificación de las rocas tal vez el progreso individual más significativo durante el siglo XIX, tuvieron su base en una invención técnica. El microscopio de polarización, inventado por el físico escocés William Ni-col (1768-1851) en 1828, había posibilitado al petrógrafo examinar delgadas secciones de roca densa con el mismo detalle con que un biólogo examina las células de una planta o un animal. Hacia el término del siglo XIX, la petrografía llevó a la nueva ciencia de la petrología, en la que el interés principal se desplazó de la descripción de las rocas a los problemas de su génesis y distribución, liste desplazamiento en el interés se hizo posible tanto por la gran riqueza de datos petrográficos acumulados como por los crecientes conocimientos y síntesis de la física y la química.

Durante el siglo XX los geólogos llegaron a la conclusión de que la cristalización de rocas como el basalto y el granito sigue las mismas leyes de química física que rigen la cristalización de compuestos químicos en el laboratorio. Por aplicación de un razonamiento basado en el conocimiento de estas leyes de química física, los petrólogos pudieron demostrar que algunas de las fáciles explicaciones de fenómenos geológicos expuestas con anterioridad no podían ser correctas.

Por ejemplo, uno de los grandes problemas de la geología es explicar la diversidad de tipos de roca. En una pequeña región de apenas unos pocos kilómetros de superficie se encuentran con frecuencia rocas ígneas diferentes que, sin embargo, tuvieron probablemente un origen común. Este fenómeno había sido explicado en general como una resultante de la «inmiscibilidad líquida». Es muy conocido el hecho de que ciertos líquidos no se mezclan entre si, como, por ejemplo, el aceite y el agua. Se había supuesto que, al enfriarse, una masa inicialmente homogénea de roca fundida, llamada magma, se dividió en dos o más fracciones líquidas no mezclables, que luego se cristalizaron para dar los diferentes tipos de roca que son observados. N. L. Bowen (1887-1956f mostró que el resultado de un proceso así seria totalmente distinto del observado en la naturaleza. Según su razonamiento, las rocas resultantes contendrían muchas gotas de material de diferente composición química y no masas homogéneas distintas como las que se observan en el campo. Además, cuidadosos experimentos de laboratorio indicaban que, en estado de fusión, las rocas observadas podían de hecho mezclarse en todas las proporciones. La explicación, pues, fallaba en dos aspectos. Bowen propuso seguidamente una explicación alternativa que se ajustaba a los hechos de la química física. Después de cristalizados sucesivamente en el magma diversos minerales para formar un tipo de roca, fuerzas físicas como la gravedad separan estos cristales del magma residual. Como consecuencia de la substracción de los compuestos químicos que hay en estos primeros cristales, la composición química del magma ha sido cambiada. La subsiguiente cristalización del magma residual produce, por consiguiente, un tipo de roca diferente.

La repetición de este proceso de cristalización fraccional puede tener como resultado el tipo de variación que se observa en la naturaleza. Combinaciones análogas de razonamiento físico y cuidadoso trabajo de laboratorio permitieron a los petrólogos aprender mucho acerca de los verdaderos procesos a través de los cuales las rocas se forman en la naturaleza, aunque seguían sin solución muchas cuestiones fundamentales.

Sin embargo, la teoría de Bowen de la diferenciación debida a la cristalización no proporcionaba una solución completa al problema de la diversidad de rocas volcánicas, especialmente a su división en los dos principales grupos de basaltos y granitos. En el segundo cuarto del siglo xx, comenzaron a ganar terreno nuevas ideas. Según éstas, los granitos no se formaron como consecuencia de la intrusión por debajo de un magma o de una tardía cristalización de un magma basáltico, sino como consecuencia del cambio —granitificación— de diversas rocas sedimentarias, metamórficas y volcánicas más antiguas, a causa del desplazamiento de sus minerales por feldespatos y cuarzo en virtud del depósito de álcalis (K, Na) y sílice y de la eliminación de los alcalino-térreos superfluidos (Ca, Mg) y el hierro. El origen magmático o meta somático de los granitos y el mecanismo de granitificación supuesto en el segundo caso seguían siendo cuestiones muy discutidas.

William Thompson Kelvin, quien llegó a la conclusión de que la Tierra y el Sol no podían tener más edad que unas pocas decenas de millones de años. La consideración de las fuentes conocidas de energía solar indujo a Kelvin a creer que el Sol no podía haber estado irradiando calor por más tiempo que aproximadamente cien millones de años. Foto Agencia AGE.

Uno de los grandes problemas de la geología es la cuestión de la edad de la Tierra. Al comienzo del siglo XIX, la mayoría de los hombres del mundo cristiano, incluidos los científicos, habían aceptado la opinión de que la Tierra tenía únicamente unos 6 000 años de existencia. A causa de esta creencia, los geólogos se habían visto obligados a comprimir todos los acontecimientos que habían contribuido a la historia geológica dentro de ese breve lapso.

La obra de los grandes geólogos precursores James Hutton (1726-1797) y Charles Lyell (1797-1875) ayudó a liberar a la ciencia de esta embarazosa opinión. Presentaron impresionantes pruebas de que los testimonios geológicos eran producto de conocidas causas ordinarias, como la erosión, que habían actuado durante largos períodos de tiempo. Avanzado ya el siglo XIX, la necesidad de una escala temporal más larga fue acentuada por las tesis de los evolucionistas y se entendió que la tierra debía tener cientos de millones de años en lugar de solamente unos miles.

Apenas esta opinión científica prevaleció sobre la teológica, fue puesta en tela de juicio desde otra fuente: los cálculos del físico británico lord Kelvin (1824-1907), quien llegó a la conclusión de que la Tierra y el Sol no podían tener más edad que unas pocas decenas de millones de años. La consideración de las fuentes conocidas de energía solar indujo a Kelvin a creer que el Sol no podía haber estado irradiando calor por más tiempo que aproximadamente cien millones de años; además, si la Tierra estuvo originalmente en estado líquido, sus regiones superficiales se hubieran enfriado en unos veinticinco millones de años, lo bastante para contradecir la elevación de la temperatura en el interior de las minas más profundas. Estas conclusiones parecieron formidables en la época y dieron origen a serias controversias.

La discusión pronto terminó, sin embargo, del modo más inopinado gracias a la primera contribución de la física nuclear a la geología: el descubrimiento de la radiactividad en 1896. Este descubrimiento demostró que los elementos radiactivos uranio y torio formaban una casi inagotable fuente de calor que no había sido incluida en tos cálculos de Kelvin y que bastaría para producir calor en la Tierra durante muchos miles de millones de años. En la década de 1930, se comprendió que el calor del Sol estaba originado por un tipo diferente de efecto nuclear, la fusión de núcleos de hidrógeno en núcleos de helio, acompañada por la producción de calor.

Durante el siglo xx la desintegración radiactiva contribuyó de otro modo al conocimiento de la edad de la Tierra. Pronto se comprendió que la transformación radiactiva del uranio y del torio en plomo proporciona la base de un método absoluto de determinación de la edad geológica. Minerales como la uranita contienen uranio y torio, pero inicialmente muy poco plomo. Con el paso del tiempo, el uranio y el torio en el mineral degeneran en plomo a un promedio conocido. Si se mide la cantidad total de plomo producido de este modo, al mismo tiempo que la cantidad de uranio y torio, se puede calcular el tiempo transcurrido desde la formación original del mineral. Las primeras edades calculadas de este modo se publicaron en 1907 e indicaron que muchas de las rocas de la Tierra tenían cientos de millones de años de existencia. Aunque la naturaleza de la transformación radiactiva era poco conocida, estas tempranas determinaciones de edades fueron aproximadamente exactas y el subsiguiente desarrollo de la física nuclear y de poderosas nuevas técnicas analíticas hizo posible fechar de este modo muchísimos hechos geológicos.

Después de la segunda guerra mundial, los métodos más antiguos basados en la descomposición de] uranio y del torio en plomo fueron complementados por nuevos métodos que utilizaron de manera análoga la desintegración del potasio en argón y del rubidio en estroncio. Como resultado de estas mediciones, se hallaron edades de hasta 3 400 millones de años en la península de Kola, de la Unión Soviética, y en muchos lugares del mundo se encontraron rocas de por lo menos 2 500 millones de años. La Tierra misma tiene que ser más vieja que esto, pero es difícil decir en qué medida. Los razonamientos indirectos basados en la comparación de las proporciones de los isótopos del plomo en la Tierra con las correspondientes proporciones en meteoritos con hierro indicaron una probable edad de la Tierra de unos 4 500 millones de años. La física nuclear hizo una serie de otras contribuciones a la geología.

Las mediciones de edades por la cantidad de carbono radiactivo presente en materiales geológicos y residuos orgánicos contribuyeron al estudio de la historia geológica más reciente, que incluye sucesos como las grandes épocas glaciales. Esto se agregó a la gran importancia de la técnica de fechar por el carbono en los estudios arqueológicos. Un ejemplo más de la aplicación de la física nuclear a la geología fue el trabajo iniciado por H. C. Urey y sus colegas, en el que se utilizaron para las investigaciones geológicas las variaciones en las proporciones de isótopos estables de los elementos ligeros hidrógeno, carbono y oxígeno. La continuación de este trabajo proporcionó información referente a problemas como las temperaturas de los océanos prehistóricos, el origen de las aguas naturales y la cristalización fraccional de un magma.

El interior de la Tierra, la atmósfera terrestre

En el siglo XIX el pensamiento geológico se había interesado casi exclusivamente en las características de la superficie de la tierra. Se sabía relativamente poco acerca de su interior. Las mediciones astronómicas permitieron calcular la masa total de la Tierra, así como el hecho de que esta masa estaba concentrada en el centro del globo. La medición de la temperatura en las minas indicaba aparentemente que el interior de la Tierra era mucho más caliente que su superficie. La extrapolación a partir de estos gradientes térmicos llevó a la conclusión de que el interior más profundo de la Tierra era tan caliente que tenia que ser líquido, si no gaseoso.

El profesor G. Pidjian y el académico 1. Magakian en el Instituto de Geología de la Academia de Ciencias de Armenia. Como resultado de las mediciones basadas en la desintegración delpotasio en argón y del rubidio en estroncio ellos hallaron edades de hasta 3.400 millones de añas en la península de Kola de la Unión Soviética,y en muchos lugares del mundo se encontraron rocas de por lo menos 2.500 millones de años. Foto Agencia Novosti.

Pero, basado en observaciones de las mareas terrestres, lord Kelvin llegó a la conclusión opuesta, la de que la tierra como un todo es muy rígida.  Durante el siglo XX se hicieron grandes progresos en el conocimiento del interior de la Tierra. Estos progresos se debieron en gran parte al desarrollo de la sismología, el estudio de los terremotos. Un terremoto tiene por causa la repentina fractura de las rocas dentro de la Tierra, por lo general cerca de su superficie. Como consecuencia de esta fractura, se irradian ondas lo bastante fuertes para que crucen todo el planeta. Estas ondas sísmicas son vibraciones mecánicas como las ondas sonoras, pero en su mayoría son de frecuencia demasiado lenta para que sean percibidas por el oído humano. Se forman otras ondas sísmicas que viajan a lo largo de la superficie de la Tierra. Mediante la combinación de la teoría clásica de la propagación ondular elástica con observaciones de estas ondas sísmicas, los sismólogos lograron deducir mucha información acerca de la estructura del interior de la Tierra. De hecho, estas ondas sísmicas fueron casi el único modo práctico de sondear el interior más profundo del globo.

A comienzos del siglo, estudios de ondas sísmicas revelaron que la Tierra está dividida en dos regiones principales: el centro, en gran parte líquido y con un radio de unos 3 500 kilómetros, está recubierto por un caparazón sólido (el manto) de unos 2900 kilómetros de grosor. En 1909, A. Mohorovicic (1857-1936), en Zagreb, descubrió que encima del manto hay un delgado revestimiento de menor densidad, que ha sido llamado corteza. El linde entre la corteza y el manto fue denominado discontinuidad de Mohorovicic en honor de su descubridor. Bajo la mayor parte de las regiones continentales se halla a una profundidad de unos 35 kilómetros por debajo de la superficie de la Tierra, mientras que bajo los océanos se muestra a una profundidad muy inferior.

Como resultado de su trabajo, los sismólogos pudieron ofrecer una reseña bastante exacta del modo en que la velocidad de las ondas sonoras varía con la profundidad, y con estos datos se hizo posible deducir la variación de la densidad con la profundidad, así como otras propiedades del interior de la Tierra. Después de la segunda guerra mundial, los estudios sísmicos se facilitaron con el empleo de explosiones provocadas por el hombre en sustitución de los terremotos como fuentes de ondas sísmicas. Este método tenía la ventaja de que se conocían con exactitud el tiempo y el lugar de la sacudida inicial, sin que fuera necesario calcularlos por las observaciones, como sucedía con los terremotos. Con el empleo de explosiones químicas, se efectuaron estudios de la corteza terrestre en varios continentes y en el mar y, por otro lado, las explosiones nucleares produjeron ondas sísmicas lo bastante fuertes para que penetraran en el interior más profundo del globo. Datos de estas explosiones nucleares proporcionaron nueva información sobre la existencia y las propiedades de un núcleo interior sólido dentro del centro líquido de la Tierra.

Al mismo tiempo, se dedicó mucha atención a la naturaleza de la discontinuidad de Mohorovicic que forma la base de la corteza. Durante muchos años, se había supuesto que representaba una discontinuidad química; se pensaba que las rocas cristalinas contenían una alta concentración de los elementos más ligeros, mientras que, al entrar en el manto, la composición cambiaba bruscamente en rocas más ricas en compuestos del hierro y de una mayor densidad. Sin embargo, aumentó el apoyo a la tesis de que no había cambio químico importante en la discontinuidad de Mohorovicic, sino que el observado aumento de densidad a tal profundidad obedecía a modificaciones en los minerales conocidos a causa de la fuerte presión. Las tareas de laboratorio, en las que una serie de estas modificaciones de alta presión se manifestaron a presiones y temperaturas que corresponden a las del nivel de la discontinuidad de Mohorovicic, fortalecieron esta suposición y fueron una de las consideraciones que llevaron a proyectos para efectuar una perforación profunda a través de la discontinuidad, penetrar en el manto y someter así la hipótesis a una prueba directa.

Durante el siglo xx, del mismo modo que sobre su interior, se acumuló mucha información sobre la atmósfera de la Tierra.

Explosión experimental de dinamita, en Oklahoma. para realizar mediciones sísmicas. Después de la segunda guerra mundial, los estudios sísmicos se facilitaron con el empleo de explosiones provocadas por el hombre en sustitución de los terremotos como fuentes de ondas sísmicas. Servicio Documental Planeta.

En el siglo XIX se sabía que, a medida que se sube en la atmósfera, a alturas de pocos kilómetros, en globos o escalando montañas, el aire se hace menos denso y la temperatura disminuye. Se pensaba generalmente que, si se llegara a altitudes mayores, la densidad y la temperatura disminuirían sostenidamente, con la densidad aproximándose a cero y la temperatura aproximándose a — 273°C, el cero absoluto de la temperatura.

Aproximadamente con el paso de un siglo a otro, León P. Teisscrenc de Bort (1855-1913), en París, envió globos a altitudes de unos 14 kilómetros y descubrió el hecho sorprendente de que, a unos once kilómetros, la temperatura ya no disminuía, sino que asumía un valor constante de — 600C. Se descubrió así que la atmósfera terrestre consiste por lo menos en dos capas: la inferior, llamada troposfera, y la región superior, o estratosfera. El linde entre estas dos capas es conocido como la tropopausa, en la que se encuentra la famosa zona de fuertes vientos bautizados como osjels de aire. Los fenómenos atmosféricos más corrientes, como las nubes y tormentas,  lazos químicos e inducir de este modo una serie de efectos bioquímicos. Uno de los más importantes de estos efectos es la conversión de pequeñas cantidades de oxígeno en ozono en la región entre los 20 y los 50 kilómetros, como se demostró en 1934 mediante la medición de las absorbentes bandas de ozono en el espectro solar. A este ozono se debe la absorción de la mayor parte de la radiación ultravioleta, biológicamente dañina. A altitudes todavía mayores, la radiación ultravioleta se muestra efectiva en la eliminación de electrones de átomos normalmente neutros para formar iones positivos. La presencia de estas partículas cargadas libres, electrones e iones, hace que la atmósfera se convierta en una buena conductora eléctrica a una altitud superior a los 70 kilómetros.

Avanzado el siglo XIX, se había señalado que debía haber una capa conductora en algún lugar de la atmósfera, como explicación de las variaciones cotidianas en el campo magnético de la Tierra. Poca atención se prestó a esta indicación y estaba casi olvidada en la época en que Guillermo Marconi (1874-1937) hizo, en 1901, sus investigaciones de precursor en la transmisión por radio. Como los físicos habían mostrado que las ondas de radio viajan en línea recta como la luz, se había supuesto que la transmisión a larga distancia de señales de radio sería impedida por la curvatura de la Tierra. Sin embargo. Marconi logró enviar señales a través del Atlántico. La idea de una capa conductora que reflejaría las ondas radiales de regreso a la tierra fue entonces resucitada por Arthur F. Kennelly (1861-1939) en Estados Unidos y Oliver Heaviside (1850-1925) en Gran Bretaña. El que las ondas de radio de una estación distante bajan realmente del ciclo fue demostrado en Gran Bretaña por Edward Appleton (nacido en 1892) y M. A. F. Barnett (nacido en 1901 > en 1924. En 1925, Gregory Breit (nacido en 1899) y Merle A. Tuve (nacido en 1901 (demostraron en Estados Unidos, fuera de toda duda, la existencia de una capa conductora mediante una técnica que fue la precursora del radar. Las señales de radio eran transmitidas vertical-mente al cielo y se recibían los ecos procedentes de la capa conductora. La altura de esta capa conductora quedó determinada mediante la medición del tiempo necesitado por la señal de radio para su ascensión y regreso.

La región conductora forma la tercera gran división de la atmósfera, la ionosfera. Se vio que la ionosfera contiene varias capas de diferente conductibilidad, uuc son llamadas, por orden de creciente altitud, las capas D, E, F y F, con el comienzo de esta última a una altura de unos 250 kilómetros. La parte de la atmósfera más allá de la ionosfera recibe el nombre de exosfera. Aquí la densidad de la atmósfera es tan baja que los átomos y moléculas individuales rara vez chocan entre sí y pueden de este modo girar en órbitas alrededor de la Tierra como satélites.

La creación del cohete V-2 por Alemania durante la segunda guerra mundial proporcionó un medio para el sondeo directo de la estratosfera superior y la ionosfera. Terminada la guerra, se dispararon a la alta atmósfera muchos cohetes V-2 y luego cohetes de diseños más avanzados. Se perfeccionó mucho la exactitud de los datos anteriores, pero, en general, estas observaciones directas estuvieron de acuerdo con las conclusiones ya obtenidas por métodos indirectos. Después de 1957, el empleo de satélites artificiales proporcionó un modo de efectuar una constante serie de observaciones en la ionosfera y la exosfera. Se esperaba que el sostenido desarrollo de este procedimiento llevara a estaciones de observación, con gran número de instrumentos y tal vez tripuladas, en la atmósfera superior y que quedara así facilitada la acumulación de informaciones acerca de esta extrema región exterior de la Tierra.

Técnicas y progresos de la astronomía

Al comenzar el siglo XX se conocían con detallada precisión los movimientos de los planetas y satélites del sistema solar. Cabía predecirlos plenamente con un alto grado de exactitud conforme a cálculos basados en las leyes newtonianas del movimiento y en la ley newtoniana de la gravitación, la de la razón inversa de los cuadrados. Sólo en el caso del planeta más próximo al Sol, Mercurio, había una discrepancia: se observó para su perihelio una progresión mensurablemente mayor de la que podía ser explicada por las perturbaciones debidas a los otros planetas. Esta última discrepancia fue eliminada mediante la adopción (1916) de una levemente modificada ley de gravitación que, basada en la teoría de la relatividad general de Einstein, explicaba el adelanto del perihelio de Mercurio sin echar por tierra el vasto número de otros detalles en los que tanto las leyes de Einstein como las de Newton coincidían con las observaciones.


Guillermo Marconi con su primer telégrafo sin  hilos en una fotografía de 1896. Foto Agencia AGE.

Aunque continuaron efectuándose ajustes de detalle, los astrónomos consideraron en adelante que la mecánica celeste era una rama de su ciencia que estaba ya plenamente elaborada en lo esencial.

La atención de los astrónomos se despla70 cada vez más, en consecuencia, hacia la astronomía estelar, con inclusión del estudio del Sol y de las nubes gaseosas y de polvo del espacio interestelar. Examinaron la distribución en el espacio de las estrellas y de las nubes de polvo y gas y la estructura, constitución y marcha evolutiva de estos fenómenos astronómicos.


Guglielmo Marconi examinando la cinta con las primeras señales enviadas a través del Atlántico en 1901. Foto Agencia Camera Press.

Antes de 1932, todos los datos estudiados se basaron en la observación de lo visible, es decir, de la luz próxima al ultravioleta o al infrarrojo que emiten las estrellas y puede penetrar en la atmósfera de la Tierra. A comienzos del siglo, el esfuerzo se concentró en la construcción de telescopios mayores para el estudio de esta luz; los proyectos principales fueron la construcción del reflector de cien pulgadas en el monte Wilson y luego del reflector Hale de 200 pulgadas en el monte Palomar, ambos en la zona meridional de California. Al mismo tiempo, se instalaron grandes telescopios en el hemisferio sur, especialmente en el observatorio del monte Slromlo, de la Universidad Nacional de Australia, cerca de Canberra. El incremento de posibilidades en el hemisferio sur tuvo una importancia especial, porque se llegó a saber que esta parle del cielo contiene más objetos de interés fundamental que la del norte.

El descubrimiento de ciertas ondas radiales que llegan de! espacio interestelar permitió un método de observación de las estrellas completamente nuevo. La radioastronomía utiliza la transparencia de la atmósfera terrestre para las ondas electromagnéticas en una banda de longitudes de onda que va de 1 cm. a unos diez metros. La fuente de estas ondas de radio fue descubierta en 1932 por Karl Jansky (1905-1950) en Nueva Jersey y el conocimiento acerca de ellas fue ampliado por Grote Reber (nacido en 1911), en Illinois (EE. UU.), durante los años siguientes. Después de la segunda guerra mundial, este campo de estudio fue cultivado vigorosamente en muchos países, especialmente por los radiofísicos australianos. Se esperaban grandes avances en el saber astronómico como consecuencia de la construcción de muchos grandes radiotelescopios, que son grandes reflectores metálicos parabólicos en cuyos focos se colocan antenas receptoras para recoger las ondas radiales y conducir su energía a mecanismos amplificadores y registradores.

El alcance de la observación astronómica fue ampliado todavía más cuando fue técnicamente posible hacer observaciones con instrumentos situados encima del manto opaco de la atmósfera terrestre. A mediados del siglo, se hacían muchas observaciones en el extremo ultravioleta con instrumentos llevados por cohetes o globos de gran altitud o por una combinación de unos y otros, mediante un cohete llevado por un globo la mayor parte de la ascensión hasta lo alto de la atmósfera terrestre y luego disparado hacia arriba.

Lanzamiento de una V-2 desde Peenemünde. La creación del cohete V-2 por Alemania durante la segunda guerra mundial proporcionó un medio para el sondeo directo de la estratosfera superior y la ionosfera. Foto Agencia AGH.

Estas técnicas ofrecieron la posibilidad de saber mucho más acerca de los mecanismos por medio de los cuales las cambiantes condiciones solares afectan a la Tierra.

Hacia el término de 1957 los estudios de esta clase recibieron un gran impulso con el lanzamiento por los rusos del primer satélite terrestre artificial. Demostraron la posibilidad de poner en órbita, a varios cientos de kilómetros de la superficie de la Tierra, un objeto con un peso de varios miles de kilos, al que cabe equipar con instrumentos de observación astronómica y medios para la transmisión automática por radio de los datos observados a las estaciones en la Tierra. Como estos satélites pueden mantenerse por encima de la atmósfera terrestre durante muchos meses e incluso años, están en condiciones de acumular datos mucho más efectivamente que los disparos ocasionales de cohetes de corta duración.

La distribución de las estrellas en el espacio

A comienzos del siglo, la distancia de las estrellas estaba determinada por medición de paralajes trigonométricos: el desplazamiento en su dirección aparente desde el observador a causa del movimiento orbital de la Tierra alrededor del Sol. Pero las estrellas están en su mayoría tan distantes que sólo unas pocas muestran un desplazamiento paraláctico mensurable, a pesar de que incluso fue posible medir desplazamientos tan pequeños como una centésima de segundo de arco con las técnicas de mediados del siglo.

Se dice que una estrella a una distancia tal que el radio de la órbita de la Tierra subtienda, en esa estrella, un ángulo de un segundo se halla a una distancia de un pársec, que es igual a 206 265 veces la distancia entre la Tierra y el Sol. Un año-luz es la distancia que la luz recorre en un año, que es unos 9,3 billones de kilómetros. Un pársec equivale a 3.26 años-luz o unos 30,3 billones de kilómetros. Sólo unas 5000 estrellas están lo bastante próximas para la medición directa de su distancia por el método del paralaje.

Se registró un gran adelanto a comienzos del siglo con el descubrimiento por Henrietta Leavitt (1868-1921) y Harlow Shapley (nacido en 1885) de un nuevo modo de tic terminación de distancias estelares. Hay un tipo de estrella variable llamada variable Cefeida; se conocen unas mil de estas estrellas, cuyo brillo disminuye con lentitud y luego aumenta bruscamente. El tiempo para un ciclo de esta variación en el brillo se llama un período. Al trabajar con estrellas que están lo bastante próximas para que su distancia sea medida por el método del paralaje, miss Leavitt descubrió una relación entre este período de variación y la luminosidad media absoluta, o sea, el brillo visto a una distancia dada. Cuanto más brillante era la estrella, más largo era el periodo. Shapley advirtió que, como el período observado de una variable Cefeida nos dice su luminosidad media absoluta, los astrónomos podían utilizarlo, en unión del brillo medio aparente observado, para deducir la distancia que nos separa de la estrella. El método fue muy utilizado durante la primera mitad del siglo y, junto con los grandes telescopios, dio para este tipo de estrella distancias mucho más precisas que las que permitía el método paraláctico.

El siglo XX presenció también un gran avance en la comprensión de la relación del Sol y el sistema solar con el resto de las estrellas en el espacio. La más manifiesta organización de las estrellas en el espacio es la claramente visible Vía Láctea, una banda en el ciclo junto a la que hay una densidad desusadamente grande de estrellas visibles. En este conjunto de estrellas, conocido como «nuestra» galaxia para distinguirlo de los varios cientos de millones de agrupaciones semejantes que forman el universo conocido, el círculo máximo que pasa por las partes más densas se llama ecuador galáctico. El hecho de que el número de estrellas visibles disminuya rápidamente en direcciones que se alejan del ecuador galáctico indica que la galaxia es una vasta región en forma de disco ocupada por estrellas.

Antes del siglo xx se pensaba que el hecho de que la densidad de estrellas en diversos puntos alrededor del ecuador galáctico es poco más o menos la misma indicaba que la posición del Sol se halla próxima al centro de nuestra galaxia. Pero investigaciones de Shapley en la década de 1920 sobre la distribución de racimos globulares de estrellas revelaron que ello no es así y llevaron a cálculos de que nuestro sistema solar se encuentra a unos 9 000 pársec del centro de la galaxia, de que el diámetro de la galaxia es de 30000 pársec y de que su extensión es aproximadamente un décimo de esta distancia. Estas dimensiones son poco más o menos diez veces mayores que los cálculos que prevalecieron durante el siglo XIX.

El desarrollo de la radioastronomía ofreció posibilidades de sondear la estructura de la galaxia hasta su centro. Cerca del centro de la galaxia y próxima a su plano hay una enorme cantidad de polvo y gas interestelares que tiende a oscurecer la luz procedente de esas zonas y hace que la Vía Láctea no sea mucho más luminosa hacia el centro galáctico (en Sagitario) que en el lado opuesto. Las ondas radiales, sin embargo, están menos oscurecidas por el polvo que la luz visible. Las observaciones revelaron que las estrellas de nuestra galaxia parecen más numerosas a lo largo de varios brazos en espiral que salen del centro, indicando que la estructura general de nuestra galaxia se parece a la de las galaxias en espiral exteriores a nosotros que pueden ser vistas por medio del telescopio.7

Los movimientos de unas pocas estrellas próximas a nosotros pueden ser calculados por la observación directa del lento cambio de su dirección aparente. Pero se dedujo del efecto Doppler un método mucho más importante, pues no está limitado a las estrellas próximas. Esta técnica fue establecida por primera vez a fines del siglo XIX y constituyó la base de una gran cantidad de observaciones durante los setenta y cinco años siguientes.

Radiotelescopio de la Universidad Gorki, en Zimenki. Se esperaban grandes avances en el saber astronómico como consecuencia de la construcción de muchos grandes radiotelescopios, que son grandes reflectores metálicos parabólicos en cuyos focos se colocan antenas receptoras para recoger las ondas radiales y conducir su energía a mecanismos amplificadores y registradores. Foto Agencia Camera Press.

Conforme a ella, las líneas en el espectro de una fuente luminosa que se mueve hacia el observador se desplazan en longitud de onda hacia el violeta y, si la fuente se aleja, hacia el rojo. Se mide la cantidad del desplazamiento de la longitud de onda y esto sirve como indicación de la velocidad del movimiento, o velocidad radial, hacia el observador o alejándose de él8. A esta técnica se debió el descubrimiento de las binarias espectroscópicas. Son pares de estrellas que giran la una alrededor de la otra tan juntas que no pueden ser determinadas como dos en los mayores telescopios, pero cuyos movimientos son claramente revelados por la variación regular de los desplazamientos de longitud de onda en su espectro, al hacer su movimiento orbital que primero una de ellas y luego la otra se muevan hacia nosotros mientras !a pareja se aleja.

En el segundo cuarto del siglo xx, el estudio estadístico de las velocidades radiales de estrellas de nuestra galaxia en diferentes direcciones respecto a nosotros proporcionó una base para un cuadro general de los movimientos en la galaxia. El cuadro que surgió fue el de un movimiento caótico, al azar, de las estrellas en nuestra galaxia, superpuesto a un ordenado movimiento de rotación alrededor del centro. Como con los planetas del sistema solar, el período de revolución es más prolongado a medida que las distancias respecto al centro son mayores. A la distancia del Sol respecto al centro, el período de revolución es de unos 200 millones de años. Se deduce de esto que la masa total de la galaxia es del orden de cien mil millones de veces la del Sol. Tal vez la mitad de esta masa corresponda a estrellas y la otra mitad esté dispersa en polvo y gas interestelares.

Fuera de nuestra galaxia, eran conocidas gran número de otras galaxias cuyos tamaños son aproximativamente comparables al de la nuestra y que están separadas entre ellas por distancias que son grandes comparadas con sus propias dimensiones. Las más próximas a nosotros son las «nubes de Magallanes», dos agrupaciones de forma irregular a unos 25000 pársec de distancia y cada una de ellas con un diámetro que es una décima parte del de nuestra galaxia. Las dos galaxias en espiral más próximas y mejor estudiadas son la Messier 31, en Andrómeda, y la Messier 33, en el Triángulo, cada una de ellas a unos 500 000 pársec de nosotros, o sea, alejadas de nosotros como unas veinte veces el diámetro de la galaxia a la que pertenecemos.

Durante la primera mitad del siglo, los astrónomos dedicaron mucha atención a estas galaxias exteriores, especialmente en Harvard, en monte Wilson y en el Observatorio Lick, de California. Edwin P. Hubble, del observatorio de monte Wilson calculó que existían unos cien millones de ellas dentro del alcance de los instrumentos con que entonces se contaba. En sentidos que se alejan del plano de nuestra Vía Láctea, muestran una notable uniformidad estadística de números. La advertida falta aparente de ellas cuando nos acercamos a la Vía Láctea fue consiguientemente tomada como prueba de que la uniformidad de su número en todos los sentidos está ocultada por el efecto oscurecedor de las nubes de polvo y gas en nuestra propia galaxia.

De esta manera, el cuadro que se estableció durante la primera mitad del siglo XX fue el del hombre habitando un pequeño planeta que gira alrededor de uno de los millones de estrellas de nuestra galaxia, que no es más que una entre millones de galaxias análogas del universo conocido.

El descubrimiento referente a las galaxias exteriores que llamó más la atención y originó más conjeturas fue el hecho en monte Wilson por Hubble. Al estudiar los espectros de la luz de estas galaxias, vio que las líneas se desplazaban hacia el rojo. Interpretado esto como desplazamientos Doppler, es una prueba de que las galaxias se están alejando de nosotros, Hubble halló, además, que las más débiles, de las que es natural suponer que son las más distantes, tienen desplazamientos mayores hacia el rojo; de hecho, el modo más sencillo de interpretar los datos es suponiendo una proporcionalidad entre la velocidad de movimiento de una galaxia que se aleja de nosotros y la distancia real que de ella nos separa.9

Esto indicó que el universo se está expandiendo. La regla de proporcionalidad de Hubble entre velocidad y distancia parecía aplicarse al límite de los más débiles objetos que podían ser alcanzados con los grandes telescopios de California.

Estudios de la estructura y de la evolución de las estrellas

Junto a esta visión ampliada de la extensión del universo, se registró un rápido aumento del conocimiento sobre las estrellas individuales, como, por ejemplo, el Sol. Si los observadores anteriores se limitaron a calcular el brillo aparente de la luz total y a formular vagas observaciones cualitativas acerca del color, el tema quedó completamente transformado a fines del siglo XIX con la introducción del espectroscopio, que hizo posible un detallado análisis de la luz emitida por una estrella. En el siglo XX, el estudio de los espectros estelares progresó con la creciente capacidad de los científicos para interpretar los espectros como reveladores de detalles específicos acerca de la composición química y las condiciones físicas de la fuente que emite la luz.

Surgió de estos estudios el importante hecho de que las estrellas están formadas por las mismas sustancias químicas que existen en la Tierra. Las líneas de variados anchos e intensidades en los espectros solares son características de las clases de átomos y moléculas en la atmósfera exterior de la estrella y de las condiciones físicas de temperatura y presión del gas que existen en la atmósfera estelar. Sirven para mostrar qué elementos químicos están presentes en las estrellas, mediante la comparación entre las longitudes de onda registradas con las que producen fuentes terrestres de composición conocida.


Aspecto de la Vía Láctea hacia la constelación del Escorpión. La más manifiesta organización de las estrellas en el espacio es la claramente visible Vía Láctea, una banda en el cielo junto a la que hay una densidad desusadamente grande de estrellas visibles. Servicio Documental Planeta.

La intensidad relativa de las diferentes líneas en los espectros, con inclusión de la cuestión de presencia o ausencia, varía mucho de estrella a estrella. Con base en el estudio de muchas decenas de miles de espectros estelares, se ideó un sistema de clasificación de tipos espectrales, obra en gran parte de Annie J. Cannon (1863-1941), de la Universidad de Harvard, que llegó a ser de uso universal. La mucha atención dedicada por los astrónomos a la espectroscopia estelar queda de manifiesto en los detalles sobre los espectros de 225 000 estrellas que contiene el catálogo de espectros estelares de Henry Draper, publicado (1885-1924) por el Harvard College Observatory.

Un gran paso adelante en la explicación de la relación entre la intensidad de las líneas espectrales y la condición física de la atmósfera de la estrella fue el dado por Megh Nad Saha (1893-1956), de Calcuta. Aplicó al problema la teoría termodinámica general. De este trabajo surgió el hecho sorprendente de que las grandes diferencias observadas en los espectros estelares son debidas en su mayor parte a diferencias en temperatura y densidad, con una composición química de las atmósferas estelares que es aproximadamente la misma. Estos estudios mostraron que las atmósferas estelares son en más de un 98% de hidrógeno y helio. El oxígeno y el magnesio forman otro uno por ciento, dejando menos de un uno por ciento para todos los otros elementos.

Con la rápida acumulación de grandes cantidades de información muy precisa acerca de las atmósferas estelares y con el gran desarrollo de teorías físicas sobre la estructura atómica que se registró en la primera mitad del siglo XX, comenzó a ser intelectualmente provechoso indagar la constitución interna de las estrellas, la naturaleza de la fuente de la energía que continuamente irradian, la génesis de los astros y los caminos y escalas de tiempo de su evolución. El segundo cuarto del siglo fue especialmente fecundo en el desarrollo de teorías referentes a estas cuestiones.

En el siglo XIX, la única fuente conocida de energía era la que suponía la liberación de energía gravitacional por la continua contracción de la estrella. Pero el cálculo mostró que tal fuente no podía mantener la radiación del Sol por más de aproximadamente cien millones de años, mientras que existen amplias pruebas geológicas de que las condiciones climáticas de la Tierra han sido poco más o menos las mismas durante cien veces más tiempo. El descubrimiento de la radiactividad y el subsiguiente desarrollo de la física nuclear originaron muy pronto la idea de que la necesaria fuente de energía debe incluir cambios nucleares relacionados con transmutaciones atómicas. Pero las nociones de esta clase tuvieron que mantenerse vagas y poco específicas hasta 1936. fecha en que la física nuclear había progresado lo bastante para permitir a Hans A. Bethe, en Estados Unidos, y a C. F. von Weivteker (nacido en 1912), en Alemania, presentar detallados y específicos mecanismos nucleares con los que podía ser liberada energía en las condiciones que de hecho prevalecen en los interiores estelares.

A mediados del siglo, los astrónomos estaban lejos de poseer una adecuada comprensión de la génesis y el desarrollo de las estrellas. Se suponía generalmente que éstas se iniciaron por contracción gravitacional de gas y polvo interestelares; en esta fase, la energía liberada por contracción gravitacional calienta el material a una temperatura de unos diez millones de grados, en la que pueden producirse reacciones nucleares que suministren la energía necesaria para todo el ciclo vital del desarrollo de la estrella. Pero los detalles específicos de tales procesos no habían sido aún totalmente elaborados.

Las aplicaciones de la ciencia básica a la tecnología

Los descubrimientos que permitieron avances en la comprensión básica de la naturaleza de la materia, de la Tierra y del universo fueron hechos en su mayoría por hombres a los que impulsaba únicamente el deseo de un mejor conocimiento del mundo físico. La medida en que estos descubrimientos fundamentales fueron explotados tecnológicamente y constituyeron la base de desarrollos industriales y de otro carácter varió mucho de campo a campo. Todos los grandes progresos en el campo de la comunicación pueden ser referidos a los descubrimientos científicos fundamentales de Faraday. Maxwell y Hertz, según fueron aplicados por ingenieros e inventores como Alexander Graham Bell (1847-1922). Thomas A. Edison (1874-1931) y Marconi. Una derivación de la industria de la comunicación, la industria electrónica, también tenía estrechos lazos con la investigación básica de fines del siglo xix y comienzos del xx.

En contraste con esto, el campo del transporte se desarrolló en gran parte sin la ayuda de quienes trabajaban en las ciencias fundamentales. En un principio, esto fue cierto hasta en la aeronáutica, donde cabía suponer que la ciencia clásica de la aerodinámica tendría que haber representado un papel principal. Sin embargo, contrariamente a la teoría electromagnética clásica, la aerodinámica clásica se interesó sobre todo en la solución de problemas matemáticos de escaso interés práctico y se dejó que fueran los ingenieros quienes descubrieran empíricamente las primeras nociones de los principios del vuelo. Gracias a la obra de Ludwig Prandtl (1875-1953), Theodore von Karman (1881-1963) y otros, fueron gradualmente comprendidas las bases físicas de los principios de la aerodinámica práctica. Después de la segunda guerra mundial, hubo mucho interés por aplicar la física fundamental a los problemas de la aeronáutica en centros universitarios de investigación, laboratorios de los gobiernos y servicios de investigación de las industrias.

Si el desarrollo de la teoría del átomo nuclear y de la mecánica cuántica pareció en un principio estar muy alejado de la aplicación práctica, la comprensión de la naturaleza de ta materia que estos descubrimientos procuraron fue de gran importancia tecnológica, especialmente para la química y la física del estado sólido. Los laboratorios de investigación industrial se entregaron a muchos estudios en este último campo, con consecuencias prácticas como la creación del nuevo medio amplificador, el transistor. Las técnicas desarrolladas por geólogos y geofísicos para el estudio de la Tierra tuvieron rapidísima aplicación comercial, principalmente en la industria del petróleo. Los procedimientos de rutina para el descubrimiento de petróleo utilizaron sistemas exploratorios sismológicos, geomagnéticos y de gravitación. Se adoptaron las técnicas de alta presión del físico y del petrólogo para la síntesis comercial de diamantes industriales.

Los descubrimientos hechos por los físicos nucleares durante la década de 1930 tuvieron enormes consecuencias prácticas. El trabajo sobre la radiactividad artificial en 1934 llevó directamente al descubrimiento en 1938 de la fisión nuclear, la cual llevó a su vez, de modo casi inmediato, a la creación de armas nucleares y, durante el período de posguerra, a un nuevo desarrollo de reactores para la producción de energía y de ilimitadas cantidades de isótopos radiactivos artificiales, que podían ser dedicados a incontables usos industriales y médicos.

El trabajo científico fundamental que condujo al tipo más reciente de arma nuclear, la bomba termonuclear o de hidrógeno, fue reconocido como potencialmente de más importancia práctica que todas las anteriores aplicaciones de la ciencia básica a fines industriales. La ascensión de la industria moderna había sido a costa de unas siempre decrecientes existencias de combustibles fósiles. El empleo de la fisión del uranio pudo extender varios siglos las fuentes de energía disponibles, pero las fuentes de uranio, como las del carbón y el petróleo, también terminarían por agotarse. Sin embargo, el desarrollo de la energía termonuclear, con utilización del agua de los océanos como combustible, proporcionaría una inagotable fuente de energía al servicio del hombre. Mediado el siglo, los científicos de Gran Bretaña, Estados Unidos y la Unión Soviética estaban trabajando intensamente en este problema, reconociendo que, si se pudieran diseñar y construir los reactores necesarios, quedaría vencida una de las más graves amenazas para la supervivencia a largo plazo de una civilización industrial avanzada.

La explotación consciente de la ciencia básica por la industria estaba en sus primeras etapas. Antes de la segunda guerra mundial, era raro que las firmas industriales emplearan a físicos y matemáticos; su personal técnico había sido preparado casi exclusivamente en la ingeniería. En los años de la posguerra, las industrias estaban agregando a su personal técnico hombres conocedores de los fundamentos de la teoría moderna de la materia, además de los adiestrados en las más tradicionales técnicas del ingeniero. Si bien la investigación en los laboratorios industriales continuaba orientada hacia la producción de bienes utilizables, se abordaban las cosas de un modo más fundamental que en el pasado y la relación entre la ciencia básica y la tecnología se estaba haciendo cada vez más estrecha.10



1. Ya en este tiempo muchos científicos, incluidos hombres tan conocidos como Helmholtz, Lodge y Stoney, pensaban, señala el doctor L. Pollak. que el átomo no era simplemente un elemento estructural indivisible. Pero no habla aún una prueba experimental directa de que ello fuera así.

 2 El doctor L. Pollak recuerda que el desarrollo de conceptos estadísticos en la teoría cinética-molecular de los gases (Maxwell, Boltzmartn). de la mecánica estadística (Gibbs) y de la interpretación estadística de la segunda ley de la termodinámica (Boltzmann) introdujo en la física elementos completamente nuevos. los cuales iban a representar un papel decisivo en el desarrollo de esta rama de la ciencia durante el siglo XX. Los autores-directores llaman la atención del lector sobre el tratamiento de la teoría de la probabilidad y Ia estadística que figura en el siguiente capítulo.

3 El licenciado en Ciencias Filosóficas A. S Arsenyev dice que la opinión de L. Kronecker sobre la naturaleza «dada por Dios» de los números enteros difícilmente puede ser considerada como característica de los matemáticos del último cuarto del siglo XIX.

4 El académico Iván Malek subraya que, en la época en que Darwin publicó su trabajo y aun mucho después, nada se sabía acerca de la herencia de las pequeñas variaciones que Darwin consideró factor primordial de la selección natural; sin embargo, subsiguientes descubrimientos en el campo de la genética no han exigido ninguna corrección esencial en la teoría de la selección natural, con una sola excepción: sabemos que algunas de estas pequeñas variaciones especialmente las incluidas en el concepto de variabilidad inestable, no son hereditarias y ,por consiguiente, no pueden ser objetos de
selección. En cambio estudios hechos por genetistas de poblaciones naturales de animales y plantas
han  revelado un número bastante considerado de variaciones hereditarias, las llamadas micromutaciones.

5 La licenciada en Ciencias Históricas J. P. Averkieva señala que para esta época ya se habían publicado obras clásicas sobre la historia de la sociedad primitiva, como La sociedad antigua {1877). de L. Morgan, y El origen de la familia, la propiedad privada y el Estado (1884), de F   Engels.

8 El licenciado en Ciencias Filosóficas A. S. Arsenyev recuerda que el principio cuantitativo fue criticado desde el punto de vista dialéctico por Hegel ya a comienzos del siglo XIX, no en el siglo XX como los autores escriban. La solución correcta del problema de cualidad y cantidad la dio la filosofía, no las ciencias naturales.

9     El licenciado en Ciencias Filosóficas A. S Arsenyev recuerda que los autores consideran el principio de continuidad como uno de los principios del método científico de los siglos XVIII y XIX. Es necesario agregar que la cuestión de continuidad y discontinuidad ha sido resuelta por la dialéctica. Lo que los autores presentan como el punto de vista moderno (el reconocimiento únicamente de la discontinuidad) es una abstracción unilateral tan errónea como su contrapartida.

10   El licenciado en Ciencias Filosóficas A Arsenyev señala que el «principio de personalidad» aducido por los autores en oposición al principio de «impersonalidad» supone de hecho un concepto subjetivista de la ciencia que linda con el apriorismo.

11  .    El licenciado en Ciencias Filosóficas A. S. Arsenyev cree que esto no es cierto. La teoría de la relatividad no explica el resultado del experimento de Michelson, esto es, no da de él ninguna interpretación física. Lo presenta sin contradicción, siempre que sean impuestos al mundo físico ciertos postulados limitativos.

12.   László Mátrai. Miembro correspondiente de la Academia Húngara de Ciencias, escribe que es inexacto decir que los espacios no euclidianos fueron primeramente estudiados por seguidores de Corrado Segre. cuya obra se basó en la de Hermann Grassman. Se reconoce generalmente que los primeros en este campo fueron Bolyai y Lobachevsky. Los autores-directores llaman la atención sobre el hecho de que el texto no menciona nada a este respecto.

13 .    El licenciado en Ciencias Filosóficas A. S. Arsenyev recuerda que también fueron creados fecundos sistemas de geometría euclidiana por N. I Lobachevsky  (1792 1856) y J. Bolyai (1802 1860).

Se remite al lector al siguiente capítulo para el estudio de la geometría no euclidiana.

14 El doctor en Ciencias Biológicas P. Henckel afirma que los cambios de importancia en la naturaleza de los organismos no son siempre atribuibles a alteraciones en el número o la estructura de los cromosomas.

15 El doctor en Ciencias Biológicas P. Henckel señala que los virus fueron descubiertos por el científico ruso D. O. Ivanovsky, quien se especializó en fisiología vegetal. Fue el primero en demostrar, basado en el estudio del virus mosaico del tabaco, la naturaleza corpuscular de los virus y en describir las inserciones cristalinas de virus (cristales de Ivanovsky) en las células de una planta enferma.

16 El licenciado en  Ciencias Biológicas L. Y. Blyakher expresa su asombro e inquietud ante el hecho de que los autores parezcan inclinados a cuestionar que todos los fenómenos biológicos sean susceptibles en todo tiempo de una explicación materialista Los autores-directores señalan que el texto no expresa opinión sobre este asunto.

17 László Matzai, miembro correspondiente de la Academia Húngara de las Ciencias, cree que los autores están exagerando manifiestamente las diferencias entre el pensamiento científico del siglo XX y el del siglo XIX   No es como si existiera un abismo insalvable entre la física clásica y la moderna. La transformación de Lorentz hace posible la transición exacta de un sistema a otro. Es sintomático que el nombre de Lorentz no sea ni siquiera mencionado como uno de los más grándes físicos de nuestra época. En general, la interpretación de los autores de la teoría de la relatividad de Einstein se acerca peligrosamente al relativismo filosófico inclusive al idealismo subjetivo.

1 .   El doctor en Ciencias Físicas y Matemáticas E. I. Adirovich advierte que este capitulo adolece de las siguientes serias insuficiencias:  toda la física del siglo XX está reducida a microfísica, pero, al mismo tiempo, no hay una adecuada exposición de los fundamentos de la teoría de la relatividad ni un adecuado análisis de su función en la cosmogonía, la teoría del campo o la física de las partículas elementales; b) sólo se ofrece una breve y superficial exposición de ramas importantes de la física como la teoría de los sólidos, la física de bajas temperaturas, la electrónica de semiconductores y otras, y c) no se ofrece información sobre las realizaciones de la física soviética.

2 .   El doctor en Ciencias Físicos y Matemáticas E. I. Adirovich escribe que. además de Lavoisier y Dalton. se debió citar a Lomonosov  y Proust.

3.   El doctor en Ciencias Físicas y Matemáticas E. I. Adirovich señala que estaría mal no mencionar en este punto a H. Moseley. Moseley fue uno de los científicos que cayeron víctimas de la primera guerra mundial.

4 .  El profesor Khristo Khristov, miembro de la Academia Búlgara de las Ciencias, escribe: «La idea fundamental de la teoría del cuanto es ofrecida en forma muy simplificada. Las observaciones del texto podrían aplicarse a cualquier teoría estática clásica. Debería señalarse que la mecánica cuántica rechaza la tesis clásica de que las coordenadas V el impulso de cada partícula de materia tienen en cada momento valores objetivamente determinados por completo (que podemos conocer o no)y que. en consecuencia, hay una nueva definición del mismo concepto de la naturaleza de una partícula, que está ahora determinada por su función ondulatoria Esta definición de la naturaleza de la materia es exactamente tan determinista como la dada por la teoría clásica, pues una ecuación ondulatoria a* como de primer grado respecto al tiempo derivado.» Los autores-directores subrayan que. dentro del concepto clásico de determinación, lo que se dice en el texto sobre la teoría del cuanto no podría aplicarse a ninguna teoría estática clásica.

5 .  El doctor en Ciencias Físicas y Matemáticas E. I. Adirovich escribe que la reducción del lazo químico a «fuerzas de cambio» no explicará nada al lector. La esencia del lazo química en mecánica cuántica puede ser perfectamente explicada por medio del principio de Pauli y un examen de la naturaleza de un átomo unido y átomos desunidos.

6El doctor en Ciencias Físicas y Matemáticas E. I. Adirovich cree que la explicación en función de mecánica cuántica de la ley periódica de Mendeleyev  -  tan importante tanto en la ciencia como en la vida

7  El doctor en Ciencias Físicas v Matemáticas E. I. Adirovich dice que debió señalarse que fueron estudiosos soviéticos los primeros en fotografiar el centro de la galaxia.

8  El doctor en Ciencias Físicas y Matemáticas E. I. Adirovich escribe que A. M. Belopolsky fue el primero en probar que el efecto Doppler era aplicable a la luz. También debió mencionarse la obra del académico G. A. Shayn, quien creó un método para la determinación de la velocidad de la rotación axial de las estrellas basado en la forma de las líneas espectrales que tuvo gran importancia para la cosmogonía.

9 El académico V. A. Ambartsumyan subraya que sólo es posible una conclusión: la de que la metagalaxia se está expandiendo. Filósofos idealistas ven en esto la prueba de que el universo comenzó a expandirse desde un solo punto, es decir, la confirmación de la tesis religiosa de que hubo un solo acto de creación. En realidad, no hay nada sobrenatural en relación con el proceso da expansión de los sistemas galácticos. Los científicos ven en el universo diversos sistemas de cuerpos celestes que se distinguen los unos de los otros por la naturaleza de los movimientos que hay dentro de ellos. Alguno* de los sistemas son en extremo estables y otros no lo son. Un ejemplo de sistema muy estable es el que gira alrededor del Sol. La Tierra ha efectuado ya miles de millones de revoluciones alrededor del Sol y. según todas las probabilidades, como los otros planetas, seguirá siendo un miembro del sistema solar durante mucho tiempo todavía. Un grado de estabilidad parecidamente alto se halla en las estrellas dobles, es decir, sistemas consistentes   en dos soles. Sin embargo, las llamadas aglomeraciones de estrellas, que contienen cientos o miles de estrellas, son mucho menos estables. Los cálculos han revelado   que cada estrella sólo    puede efectuar unas pocas revoluciones alrededor del centro de gravedad del sistema En los sistemas estelares más grandes; esta inestabilidad todavía está más acentuada. El científico soviético B. Voront Velyaminov ha publicado un magnífico atlas de galaxias duales y múltiples, en el que la inestabilidad de esos grandes sistemas estelares es claradamente visible.

10 A pesar de que los autores editores han presentado una serie de capítulos sobre la aplicación de las ciencias físicas, biológicas y sociales a continuación de los estudios de los grandes acontecimientos científicos en cada uno de estos campos, han sido criticados por no mostrar debidamente la acción reciproca entre la ciencia y otros aspectos de la cultura. El profesor Herbert B. Callen escribe con referencia a las ciencias físicas: «Hubiera supuesto que la respuesta subrayaría la relación mutua entre ciencia y cultura. Se han ofrecido muchas reseñas de novedades científicas recientes y muchas de la evolución cultural pero rara vez ha sido explorada su vigorosa acción recíproca.» El profesor S. N. Eisenhardt observa respecto a los capítulos sobre la aplicación de las ciencias sociales: «No se ha recalcado lo bastante la utilización de la ciencia social en diversos campos aplicados... y los modos como los servicios de la ciencia social quedaron institucionalizados como servicios profesionales en distintos campos, tales |  como la industria, la agricultura, el urbanismo, el asesora miento, etc.» El profesor E. N. Anderson dice que las críticas ponen de relieve la gran dificultad de investigar las relaciones entre la ciencia y otros elementos en la sociedad moderna. Los autores-directoras se han limitado a exámenes generales de la aplicación de las ciencias físicas, biológicas y sociales después de un intento de hallar un modo mas preciso de identificar importantes relaciones especificas. Por ejemplo, los autores consultaron a varios especialistas industriales, en un esfuerzo por determinar cuates habían sido las mas importantes «penetraciones» científicas en la tecnología de sus industrias- Los especialistas replicaron con la pregunta: ¿Qué "penetraciones"? ¿El descubrimiento científico básico, el reconocimiento de lo que el descubrimiento podía significar, la invención real, la fase experimental de innovación o la posterior modificación tal vez secundaria, que hizo del empleo de la invención algo económicamente viable?. Cuando los autores determinaron el proceso respecto a un soto rasgo de la tecnología en una industria. reconocieron que podían ser tratadas relaciones muy generales en esta obra.