Apuntes de Física: Teorías y leyes (8ª parte)

En la Antigua Grecia, dos teorías contrapuestas integraban el ámbito de la cosmología: la teoría geocéntrica y la teoría heliocéntrica. Según la teoría geocéntrica, tal y como fue concebida durante la Grecia Clásica, la Tierra suponía el centro de todo el Universo, alrededor del cual giraban los cuerpos celestes. Algunos de sus partidarios serían el filósofo Platón (427/428 a.C. – 347 a.C.), o Eudoxo de Cnidos (390 a.C. – 337 a.C.), discípulo de aquel. Sin embargo, su formulación más extendida vendría dada por el filósofo Aristóteles (382 a.C. – 322 a.C.). Según la cosmología aritstotélica, el universo estaba formado por los cuatro elementos de la región terrestre (tierra, agua, aire y fuego) más la quinta esencia (el éter), que era el elemento celestial. Alrededor de la Tierra, – una esfera concéntrica en reposo -, rotaban el resto de bóvedas superiores, cada una de las cuales albergaba uno de los astros cercanos conocidos (la Luna, el Sol, Mercurio, Venus, Marte, Júpiter y Saturno); la última esfera contenía a las estrellas, siendo su movimiento propio el impulsor del resto, hecho por el cual era conocida en astronomía antigua como `primum mobile´ o “primer motor“. Elementalmente, la cosmología aristotélica, unida a una serie de influencias externas posteriores, supondría el principal modelo para gran parte del mundo antiguo, la Europa medieval e incluso la civilización islámica. Sin embargo, en su concepción original, dicho modelo adolecería de ciertas incoherencias, derivadas en lo principal de las observaciones sobre el movimiento retrógrado efectuado en ciertos momentos por los planetas, o su cambio de brillo, asociado correctamente con la variación de su distancia respecto a la Tierra. Por otra parte, los partidarios de la teoría heliocéntrica proponían que el Sol era realmente el centro del Universo, alrededor del cual giraba la Tierra y otros astros en movimientos circulares de traslación y rotación. Esta teoría sería expuesta ya en el siglo III a.C. por el matemático y astrónomo griego Aristarco de Samos (310 a.C. – 230 a.C.), quien se basaría en las ideas previas del astrónomo y filósofo Heráclito de Ponto (390 a.C. – 310 a.C.) – según el cual el Sol giraba alrededor de la Tierra, y los planetas a su vez alrededor de aquel – para su formulación. Sin embargo, el hecho de que la observación aparente de los astros favoreciera al modelo geocéntrico, cierta actitud antropocéntrica de los pensadores, y la inobservancia del paralaje (diferencia de posición aparente de un astro según el punto de observación) esperado en las estrellas debido al movimiento de traslación de la Tierra, entre otras cuestiones, llevaron al modelo heliocéntrico al olvido en cosmología durante varios siglos.

A partir del siglo II de nuestra era, la teoría geocéntrica cobraría una mayor credibilidad gracias al enfoque empirista y técnico aportado por el astrónomo, químico, matemático y geógrafo greco-egipcio Claudio Ptolomeo(100 – 170) en su famoso tratado Almagesto. Según esta versión, los planetas girarían alrededor de la Tierra en una órbita circular denominada deferente, mientras efectúan un movimiento circular menor alrededor de su posición orbital conocido como epiciclo; tal combinación explicaría el efecto retrógrado percibido en estos astros al ser observados desde nuestra posición. Para algunos, la idea de los epiciclos resultaba un artificio forzado; sin embargo, la teoría perdudaría durante siglos, consolidándose hasta la época del Renacimiento. En este tiempo, el modelo heliocéntrico recuperaría nuevamente su presencia en cosmología para, – tras un largo proceso de cuestionamiento y apertura social no exento de polémicas-, instaurarse de forma definitiva. El principal artífice de este renacimiento de la teoría sería el clérigo, político, diplomático y científico multidisciplinar polaco (prusiano, o prusiano-polaco según otras versiones) Nicolás Copérnico (1473 – 1543), quien el mismo año de su muerte publicaría una versión renovada del modelo heliocéntrico en la obra De revolutionibus orbium coelestium. En esta ocasión, la teoría copernicana ofrecía la ventaja de plantear un sistema celeste mucho más sencillo, armonioso y elegante que el ptolemaico, – cualidades estas muy valoradas en aquella época – ; aparte, gracias al nuevo modelo, era posible explicar el movimiento retrógrado de los planetas como un efecto óptico producido por el adelantamiento de uno de estos astros a otro con una órbita de menor interioridad respecto al Sol. Este sistema mantendría algunos de los desaciertos propios de los modelos anteriores, como los epiciclos o las órbitas circulares; sin embargo, serviría también para introducir novedades certeras como los periodos orbitales o las distancias planetarias al Sol. La Revolución Copernicana o Revolución Científica iniciada por Copérnico en el siglo XVI daría pie en los siguientes siglos a que muchos otros astrónomos publicaran grandes obras sobre el movimiento de los astros y sus sistemas, una tendencia cuyo ascenso alcanzaría su culminación en la publicación a finales del siglo XVII del sistema newtoniano.

El matemático y astrónomo alemán Johannes Kepler (1571 – 1630) introduciría importantes cambios en el modelo copernicano gracias en parte al estudio de los datos sobre movimientos planetarios recopilados por el astrónomo danés Tycho Brahe (1546 – 1601) – considerados de gran valor y precisión para la época – a lo largo de su vida. Kepler contribuiría de manera determinante en el desarrollo de la revolución copernicana con la formulación de sus leyes sobre los movimientos planetarios, – surgidas a partir de los datos de Brahe, y en especial, del examen de Kepler sobre la órbita de Marte – , y su aplicación a la teoría heliocéntrica. Tales leyes, publicadas en la obra Astronomia Nova de 1609 (la primera y la segunda), y en Harmonices Mundi de 1619 (la tercera) expondrían; que los planetas se mueven en órbitas elípticas alrededor del Sol, el cual se sitúa en uno de los focos (Primera ley), que la recta que une el planeta con el Sol barre áreas iguales en tiempos iguales (Segunda ley), y que los cuadrados de los períodos orbitales de los planetas son proporcionales a los cubos de sus distancias medias al Sol (Tercera ley). Gracias a Kepler, la elipse acabaría estableciéndose como la descripción más adecuada para el recorrido orbital de los planetas, y su teoría de los movimientos, como un preludio fundamental a los grandes sistemas posteriores. El astrónomo germano idearía además su propio modelo heliocéntrico, basado en la superposición de esferas insertas en poliedros perfectos o sólidos platónicos cuyo número de caras aumentaba con la altura; tal modelo quedaría expuesto principalmente en la obra Misterium Cosmographicum de 1596 y, ampliada después en Harmonices Mundi. Al mismo tiempo, el astrónomo, filósofo, matemático y físico italiano Galileo Galilei (1564 – 1642) defendería a partir de sus pruebas y estudios astronómicos la tesis heliocéntrica, publicando sus argumentos en la obra Diálogos sobre los dos grandes sistemas del mundo de 1632. Tal publicación le supondría posteriormente un proceso frente a la Iglesia, siendo por ello objeto de acusasiones, juicios y amenazas de tortura, hasta el punto de abjurar; tras dicho proceso, Galileo sería confinado en su residencia de Florencia de por vida. Anteriormente, gracias a su construcción pionera del telescopio, el científico pisano observaría por primera vez algunos de los elementos más importantes de nuestro Sistema Solar como los satélites galileanos (Europa, Ío, Ganímedes y Calisto) de Júpiter, las fases de Venus, las manchas solares o el relieve lunar, y comprobaría por sí mismo además la tremenda lejanía de las estrellas de la Vía Láctea y su cantidad; tales descubrimientos serían descritos en obras como el Mensajero Sideral, de 1610, o El Ensayador, de 1623. Galileo publicaría también importantes estudios sobre física, como el principio de inercia y la caída libre de los cuerpos. Por todo ello, y en especial por su concepción acerca de la metodología científica y la experimentación, Galileo Galilei acabaría por ser considerado posteriormente – junto con otras importanes figuras de su tiempo, como el filósofo y teórico inglés Francis Bacon (1561 – 1626)- , padre de la ciencia moderna.

Las leyes de Kepler supondrían la primera descripción cinemática del movimiento planetario en la historia científica. Su mismo autor atribuiría el origen de dicho movimiento al Sol, basándose para ello en la disminución de la fuerza cinética de los planetas con la distancia respecto al astro, al igual que la luz. En su búsqueda de una explicación para su origen, Kepler recurriría a los estudios de 1600 sobre magenismo terrestre del físico y médico inglés William Gilbert (1544 – 1603) para postular que la acción cinética del Sol sobre los planetas resultaba ser magnética. Esta suposición vendría a ser refutada décadas más tarde gracias a la aportación, paradigmática y fundamental en ciencia, del físico, filósofo, inventor, alquimista y matemático inglés Sir Isaac Newton (1643 – 1727), quien a partir de las aportaciones del científico multidisciplinar inglés Robert Hooke (1635 – 1703) y su compatriota astrónomo, Edmund Halley (1656 – 1742), elaboraría su teoría sobre el origen de los movimientos sidéreos; Hooke y Halley habían supuesto ya que la fuerza que determinaba el movimiento de los planetas era atractiva y centrípeta, y que disminuía asimismo conforme al cuadrado de la distancia. Sin embargo, sería finalmente Newton – gracias en parte a su intuición sobre el movimiento orbital como una forma de caída libre – quien atribuiría acertadamente dicho origen a la fuerza de la gravedad. En el tercer libro de su obra de 1687, Philosophiae naturalis principia mathematica, Newton desarrollaría toda una serie de proposiciones y postulados que, con el tiempo, se sintetizarían en una sola ley de la gravitación universal. Dicha ley, determina que la interacción gravitatoria entre dos cuerpos es atractiva y puede expresarse mediante una fuerza central directamente proporcional a las masas de los cuerpos e inversamente proporcional al cuadrado de la distancia que los separa. La fórmula resultante de esta proposición incluiría la constante G – equivalente a 6,67 x 10^-11 N^2/kg^2 – , conocida también como constante de gravitación universal, obtenida por el físico y químico británico Henry Cavendish (1731 – 1810) gracias a su experimento de la balanza de torsión (una vara horizontal sujeta por un hilo con dos esferas metálicas en sus extremos, cuya torsión, producida por la atracción gravitatoria de otras dos esferas de plomo, permitiría deducir tal constante). Posteriormente, se introduciría el concepto de campo gravitatorio para explicar la interacción gravitacional, basándose para ello en la idea de campo propuesta por el físico y químico británico, pionero en electromagnetismo y electroquímica, Michael Faraday (1791 – 1967). La ley de la gravitación universal de Newton avalaría las ideas de Galileo relativas a la caída libre, – entre las cuales destacaría la afirmación de que dos sustancias de masas distintas arrojadas al vacío desde un mismo punto llegan simultáneamente al suelo -; concretamente, se llegaría a comprobar que la aceleración con que cae a tierra un objeto solo depende de la masa de la Tierra y no de la suya propia. Asimismo, se sabría también que la aceleración varía de manera inversa al cuadrado de la distancia al centro de la Tierra, tasándose su valor en superficie en 9,8 m/s^2. Además, la ley de Newton serviría para descifrar el significado de una de las incógnitas desconocidas en la Tercera Ley de Kepler, o para determinar también el origen de las mareas oceánicas – incluyéndose las mareas altas o de flujo, las mareas bajas o de reflujo, las mareas vivas y las mareas muertas – , atribuidas definitivamente a la atracción gravitatoria de la Luna. Hoy en día, en honor al ilustre científico inglés, se denomina newton (N) a la fuerza necesaria para proporcionar una aceleración de 1 m/s2 a un objeto de 1 kg de masa en el Sistema Internacional de Medidas.

Otro de los temas tratados en los Principia fueron las tres leyes de la dinámica o Leyes de Newton, las cuales describen el movimiento de los cuerpos así como sus efectos y causas. Según la Primera Ley de Newton, si sobre un cuerpo determinado no actúa fuerza alguna o la resultante de las fuerzas actuantes es nula, dicho cuerpo mantendrá el estado de reposo o de movimiento en el que se encuentre. Según la Segunda Ley, existe una relación de proporcionalidad directa entre la fuerza que se aplica a un cuerpo y la aceleración que esta le produce. La Tercera Ley de Newton indica que las fuerzas de interacción que ejercen dos cuerpos entre sí tienen la misma intensidad y dirección, aunque sentidos contrarios. Las Leyes de Newton supondrían la base a partir de la cual se constituiría la dinámica, es decir, aquella parte de la mecánica encargada de tratar las leyes del movimiento relacionadas con la acción de fuerzas; una rama de la física contrapuesta al estudio del movimiento desligado de sus causas, es decir, la cinemática, o al estudio del equilibrio de fuerzas, es decir, la estática. Dichas leyes servirían también de fundamento para el tratamiento de la mecánica a partir de magnitudes vectoriales como la fuerza o el momento, – mecánica newtoniana o vectorial – ; un tipo de mecánica aplicable al movimiento de cuerpos cuya velocidades no sean cercanas a la de la luz para el que se requiere el uso de sistemas de referencia inerciales. Por su parte, esta mecánica newtoniana o vectorial se hallaría en contraposicón a la denominada mecánica analítica, basada en magnitudes escalares como la energía cinética o el trabajo, y constituida por otro lado a partir de los preceptos del filósofo, matemático, jurista y político alemán Gottfried Wilhelm von Leibniz (1646 – 1716). Ambas formulaciones suponen así mismo los principales constituyentes de la mecánica clásica.

La revolución científica del Renacimiento daría pie asimismo al surgimiento de ramas científicas desconocidas hasta el momento; junto a sus estudios sobre los astros, la luz, la caída libre de los objetos y otros asuntos, Galileo Galilei dispondría de su versión personal respecto al problema del vacío al dar como cierta la teoría aristotélica del horror vacui (la naturaleza no permite el vacío). Con todo, tal afirmación contrastaría con sus propias observaciones respecto a la imposibilidad de las bombas de los pozos mineros de elevar agua mediante vacío a partir de una determinada altura. La respuesta satisfactoria a este fenómeno vendría dada por un discípulo suyo, el físico y matemático italiano Evangelista Torricelli (1608 – 1647), quién sustituiría el agua del pozo por un líquido más pesado – el mercurio – con el fin de hacer más prácticas sus observaciones. Gracias a ello, el discípulo Torricelli concluiría que los límites de ascenso del líquido en el pozo eran debidos a la presión atmosférica ejercida por el peso del aire, antes que al “resquebrajamiento del líquido causado por su propio peso” afirmado por Galileo. Mediante otras pruebas, Torricelli demostraría además la existencia de vacío en el espacio superior del líquido, valiéndose por otra parte de estos ejercicios para inventar el primer barómetro en 1643. En honor a sus logros, se denominaría torr a la unidad de medida consistente en la presión atmosférica ejercida en la base de una columna de un milímetro de mercurio bajo la acción de una gravedad estándar, (apróximadamente, un 1/760 de la presión atmosférica estándar). Posteriormente, esta unidad de medida desaparecería del catálogo oficial del Sistema Internacional de Unidades por su carácter obsoleto, siendo sin embargo su uso todavía frecuente en la realización de medidas de baja presión.

El mismo año de la muerte de Torricelli, el destacado filósofo y científico multidisciplinar Blaise Pascal (1623 – 1662), expondría sus teorías sobre la sustentación de líquidos por la presión atmosférica y la existencia del vacío en su tratado Experiences nouvelles touchant le vide. Los trabajos de Pascal resultarían determinantes para la aceptación de las evidencias mostradas por Evangelista Torricelli en la comunidad científica de su tiempo, destacando entre todos ellos su experimento con un barómetro en la cima del Puy-de-Dôme, en su localidad natal de Clermont-Ferrand – replicado posteriormente en el campanario de la iglesia de Saint-Jacques-de-la-Boucherie, en París -. Blaise Pascal demostraría la acción de la presión atmosférica al comprobar que las medidas del barómetro diferían con la altitud. Además, expondría su principio de Pascal, según el cual el incremento de la presión ejercida sobre un líquido contenido en un recipiente se transmite con el mismo valor a cada una de las partes del mismo. En honor a su trabajo sobre el vacío y la presión, se denomina pascal (Pa) a la unidad de presión consistente en la presión ejercida por una fuerza de un newton sobre una superficie de un metro cuadrado normal a la misma, en el Sistema Internacional de Unidades.

Inspirado en los descubrimientos de Evangelista Torricelli y Blaise Pascal, el jurista y físico alemán Otto von Guericke (1602 – 1686) diseñaría su experimento de 1654 de los hemisferios de Magdeburgo, según el cual dos semiesferas huecas de cobre de 50 centímetros de diámetro eran ajustadas hasta el punto de crease un vacío perfecto en su interior; durante la ejecución del mismo – realizado en la ciudad natal de von Guericke, Magdeburgo, en donde su autor ejercería además de alcalde -, dos tiros de ocho caballos cada uno se dispondrían a cada lado de los hemisferios con el fin de separarlos. Hecho el vacío, la acción de los dos tiros resultaría insuficiente para separar los hemisferios, – un gesto sumamente fácil cuando entre los mismo se introduce un mínimo de aire -. En otro experimento, el físico alemán demostraría cómo la fuerza de cincuenta hombres resultaba insuficiente para levantar un émbolo de 50 centímetros de diámetro contra el empuje de la presión atmosférica cuando bajo el mismo se había creado un vacío parcial. Asimismo, el físico, químico, inventor y teólogo irlandés Robert Boyle (1627 – 1691) se inspiraría por su parte en los trabajos de von Guericke para desarrollar, junto a Robert Hooke, la máquina neumática de 1659 – o bomba de aire según algunas fuentes; según otras, von Guericke sería el inventor de la primera bomba de vacío -. Con este diseño, Boyle realizaría una serie de experimentos acerca de las propiedades del aire; pudo comprobar por ejemplo cómo en el vacío no se propaga el sonido, o una pluma y un trozo de plomo caen a la misma velocidad. Inspiraría además la formulación de su ley de Boyle, – también conocida como ley de Boyle-Mariotte, por la contribución que en ella tuvo el físico y abad francés Edme Mariotte (1620 – 1684) – según la cual, a temperatura constante, el volumen de un gas es proporcional al inverso de la presión, reforzando con ello su aseveración de que el aire era un compuesto de partículas individuales vinculadas en el vacío. En 1660, Boyle publicaría una relación sobre sus trabajos realizados con este instrumento titulado New Experiments PsychoMechanical touching the spring of air and its effects, conocido popularmente como `La elasticidad del aire´. Por su parte, el físico e inventor francés Denis Papin (1647 – 1712) diseñaría en 1690 un dispositivo capaz de elevar 30 kg de peso con un émbolo de unos 6 cm de diámetro al crear un vacío parcial por disipación de vapor, tras ser levantado por la acción de este. Ocho años después, el inventor inglés Thomas Savery (1650 – 1715), se valdría de estos descubrimientos para patentar su bomba de vapor para minas; un dispositivo compuesto por una caldera emisora de vapor y un tanque, en cuyo interior, – tras haberse creado el vacío por condensación de vapor -, el agua es elevada a la superficie por la acción de su empuje. En esta misma dinámica, el inventor inglés Thomas Newcomen (1663 – 1729) – asesorado por Robert Hooke -, realizaría una mejora del diseño de Savery al introducir un cilindro cuyo vacío proporcionaba el empuje necesario para hacer bombear el agua. Mientras, el ingeniero y matemático escocés James Watt (1736 – 1819), mejoraría a su vez la Máquina de Newcomen al incluir un condensador independiente que mantenía cada parte de la máquina a temperatura constante, dando lugar así a la máquina de vapor.

Así, al tiempo que los diseños basados en el uso del vacío y la presión del aire mejoraban, avanzaba también el estudio de la temperatura y la cinética de los gases; en 1742, el físico y astrónomo sueco Anders Celsius (1701 – 1744) crearía la escala celsius de temperaturas, una escala termométrica dividida en cien grados centrígrados iguales que abarca desde la temperatura de fusión del hielo (0º C) a la de ebullición del agua (100º C), a presión normal. Para ello se inspiraría en escalas precedentes como la Fahrenheit – una escala también centígrada, en la que el 0 °C equivale a 32 °F y 100 °C a 212 °F -, creada a su vez por el físico alemán Daniel Gabriel Fahrenheit (1686 – 1736) en 1724. La Ley de Charles y Gay-Lussac, atribuida originalmente al inventor, físico y matemático francés Jacques Charles (1746 – 1823), es publicada por su compatriota, el físico y químico Louis Joseph Gay-Lussac (1778 – 1850) en 1802; de acuerdo a esta famosa ley, cuando la presión de un gas se mantiene constante, su volumen varía en razón directa de los cambios de su temperatura absoluta. En 1811, el físico y químico italiano Amedeo Avogadro (1776 – 1856) enunciaría su ley de Avogadro, según la cual, volúmenes iguales de distintas sustancias gaseosas, medidos en las mismas condiciones de presión y temperatura, contienen el mismo número de partículas. Precisamente en honor a este científico se denomina hoy constante de Avogadro al número de entidades elementales (átomos o moleculas) que hay en un mol (cantidad de sustancia que contiene tantas entidades elementales del tipo considerado como átomos hay en 12 gramos de carbono-12).

De esta forma, el conjunto de precedentes iniciados de alguna manera con la Revolución Científica del Renacimiento supondría la base fundamental para toda una nueva disciplina científica; la termodinámica. Su base teórica, sin embargo, quedaría establecida años después con el trabajo de un físico – y relativamente desconocido – joven francés pionero en la materia, Nicolas Léonard Sadi Carnot (1796 – 1832); la publicación de 1824 del joven Sadi Carnot titulada Reflexiones sobre la potencia motriz del fuego y sobre las máquinas adecuadas para desarrollar esta potencia es considerado hoy en día el texto fundacional de la termodinámica, describiéndose en su interior dos de los principales preceptos de la disciplina, la primera y la segunda ley de la termodinámica. La primera ley de la termodinámica establece que, al suministrar una determinada cantidad de energía térmica a un sistema, esta cantidad de energía será igual a la diferencia del incremento de la energía interna del sistema menos el trabajo realizado por el sistema sobre sus alrededores; dicha ley deriva asimismo de otro principio considerado fundamental dentro de la termodinámica, el principio de la conservación de la energía, – atribuido según distintas fuentes al físico inglés James Prescott Joule (1818 – 1889), al físico y médico alemán Julius von Mayer (1814 – 1878), y al también físico y médico alemán Hermann von Helmholtz (1821 – 1894) – cuyo enunciado establece que la cantidad total de energía en un sistema aislado permanece invariable con el tiempo, aunque dicha energía pueda transformarse en otro tipo de energía, – dicho de otra manera, que la energía ni se crea ni se destruye, tan solo se transforma -. La segunda ley de la termodinámica determina que cuando una parte de un sistema cerrado interacciona con otra parte, la energía tiende a dividirse por igual, hasta que el sistema alcanza un equilibrio térmico. El mismo año de la publicación de su texto fundamental, el físico Sadi Carnot estudió la eficiencia de las diferentes máquinas térmicas que trabajan transfiriendo calor de una fuente de calor a otra, concluyendo que las más eficientes son las que funcionan de manera reversible. Para ello diseñaría una máquina térmica totalmente reversible que funciona entre dos fuentes de calor de temperaturas fijas. Dicha máquina es conocida hoy en día como la máquina de Carnot, y su funcionamiento como el ciclo de Carnot. Los trabajos de este científico francés serían relativamente desconocidos durante su época, debiéndose su posterior reconocimiento al trabajo divulgativo del físico y matemático alemán Rudolf Clausius (1822 – 1888), y del también físico y matemático inglés William Thomson (1824 – 1907), más conocido como Lord Kelvin. Finalmente, tras la muerte de Carnot por cólera en 1832, la ciencia termodinámica continuaría su proceso constituyente; en 1834, el físico e ingeniero francés Émile Clapeyron (1799 – 1864) enunciaría la ley de los gases ideales, según la cual, en condiciones de baja presión y alta temperatura, el producto del volumen y la presión de un gas es igual al producto de la temperatura, la cantidad de moles de dicho gas y la constante universal de los gases ideales. En 1842, Julius von Mayer obtiene por primera vez el valor de la caloría (cantidad de energía calorífica necesaria para elevar un grado centígrado la temperatura de un gramo de agua pura); von Mayer descubriría además junto con James Prescott Joule aunque de forma independiente la transformación del trabajo mecánico en calor y viceversa. Lord Kelvin crearía en 1848 su escala de temperatura Kelvin – basado en el grado del mismo nombre -, en la que el grado cero coincide con el cero absoluto de la temperatura (−273,15 °C). Este científico descubriría además en 1851 el Efecto Thomson, una propiedad termoeléctrica por la que cualquier material – excepto el plomo – sometido a un gradiente térmico y recorrido por una intensidad intercambia calor con el medio exterior, al tiempo que una corriente eléctrica es generada por el material sometido a un gradiente térmico y recorrido por un flujo de calor. Entre los años 1850 y 1865, Rudolf Clausius formula el concepto de entropía, es decir, la parte de energía de un sistema que no puede utilizarse para hacer trabajo, o también, la medida del desorden de un sistema; este concepto resultaría fundamental para la comprensión de la segunda ley de la termodinámica, según la cual la cantidad de entropía de cualquier sistema aislado termodinámicamente tiende a incrementarse con el tiempo. En 1850, Clausius publicaría además su obra más destacada, Über die der Kraft bewegende Wärme, sobre la teoría mecánica del calor, al tiempo que realizaría otra de las grandes contribuciones a la termodinámica al deducir la Relación Clausius-Clapeyron, una manera de caracterizar la fase de transición entre dos estados de la materia tales como el líquido y el sólido. En 1859, el físico prusiano Gustav Kirchhoff (1824 – 1887) propone su ley de la radiación térmica, un teorema de carácter general que equipara la emisión y absorción en objetos calientes; según esta ley, si un cuerpo o superficie está en equilibrio termodinámico con su entorno, su emisividad es igual a su absorbencia. En 1867, el físico escocés James Clerk Maxwell (1831 – 1879) crea su experimento mental del Demonio de Maxwell, una criatura imaginaria capaz de actuar a nivel molecular seleccionando moléculas calientes y moléculas frías separándolas, desafiando así la segunda ley de la termodinámica.

Esta desarrollo progresivo de la ciencia termodinámica continuaría en las décadas siguientes; en 1876, el físico y matemático estadounidense Willard Gibbs (1839 – 1903) publica su obra fundamental `En el equilibrio de sustancias heterogéneas´. También pertenece a este autor la obra `Métodos gráficos en termodinámica de fluídos´. A Willard Gibbs se debe además el desarrollo de conceptos como la regla de fases – una descripción del número de grados de libertad en un sistema cerrado en equilibrio -, o energía libre – una función de estado extensiva con unidades de energía, que da la condición de equilibrio y de espontaneidad para una reacción química -, o de disciplinas como la mecánica estadística o la termodinámica química. En 1882, Helmholtz publica sus `Fundamentos de termodinámica´; la afinidad química – tendencia de un átomo o compuesto para combinarse por una reacción química con átomos o compuestos de composición distinta – es determinada por la medida de la energía libre del proceso de reacción. En 1896 se publica la obra fundamental del físico austriaco Ludwig Boltzmann (1844 – 1906) `Lecciones sobre la Teoría de los Gases´. Se establece además la ley Stefan-Boltzmann – denominada así en honor al físico y poeta esloveno-austriaco Josef Stefan (1835 – 1893), y al propio Boltzmann -, según la cual un cuerpo negro emite radiación térmica con una potencia emisiva proporcional a la cuarta potencia de su temperatura; la constante de Boltzmann, – es decir, la constante física que relaciona temperatura absoluta y energía -, la estadística de Maxwell-Boltzmann, – función estadística desarrollada para modelizar el comportamiento de sistemas físicos regidos por la mecánica clásica – y la distribución de Boltzmann – una distribución de probabilidad de las velocidades de un gas asociada a la estadística de Maxwell-Boltzmann -, son desarrolladas también por esta época. En 1900, el físico alemán Max Planck (1858 – 1947) enuncia su ley de Planck, una descripción de la radiación espectral en todas las longitudes de onda de un cuerpo negro en temperatura T. Ya en el siglo XX, los fundamentos de la termodinámica se consolidan con los enunciados de la tercera ley de la termodinámica – no se puede alcanzar el cero absoluto en un número finito de etapas -, y el principio cero de la termodinámica – existe una determinada propiedad, denominada temperatura empírica θ, que es común para a todos los estados de equilibrio que se encuentren en equilibrio mutuo con uno dado -.

Ver también:

Applets Java de Física
Concepciones antiguas del Universo
La bóveda celeste y el concepto de horizonte – Astrogea.org
Texto de la abjuración de Galileo
Eldia.es – Evangelista Torricelli: de la bomba de agua a la invención del barómetro
Youtube – Esfera de Magdeburgo
Pierre Simon Laplace – Wikipedia
Joseph-Louis de Lagrange – Wikipedia

Entradas relacionadas:

Apuntes de Física: Teorías y leyes (1ª parte)
Apuntes de Física: Teorías y leyes (2ª parte)
Apuntes de Física: Teorías y leyes (3ª parte)
Apuntes de Física: Teorías y leyes (4ª parte)
Apuntes de Física: Teorías y leyes (5ª parte)
Apuntes de Física: Teorías y leyes (6ª parte)
Apuntes de Física: Teorías y leyes (7ª parte)

Otros apuntes en Diario de un explorador:

Apuntes de Física: Los orígenes del Universo (1ª parte)

Sunshine recorder – Boards of Canada

Apuntes de Física: Teorías y leyes (7ª parte)

Desde comienzos del siglo XX, se conoce como Teoría de la Relatividad al cuerpo teórico elaborado por el científico alemán, nacionalizado estadounidense, Albert Einstein (1879-1955), y formado en su conjunto por la Teoría de la Relatividad Especial y la Teoría de la Relatividad General. La primera de ellas tiene su origen en el estudio de las incoherencias surgidas en la aplicación de la electrodinámica de Maxwell a los principios de relatividad (estudio sobre la interpretación del movimiento y leyes físicas para observadores en movimiento relativo uniforme) de Galileo Galilei (1564-1642), así como en los resultados negativos correspondientes a la búsqueda experimental de un sistema de referencia absoluto para el movimiento de la luz de los estadounidenses Albert A. Michelson (1852-1931) y Edward W. Morley (1838-1923), incongruentes con dicha relatividad. La segunda surge como una forma de generalizar los principios sobre sistemas de referencia inerciales expuestos en la Teoría de la Relatividad Especial de Einstein para un observador arbitrario; otra interpretación es que se trata de una aplicación de la Relatividad Especial para cuerpos sujetos a un campo gravitatorio.

Ya en tiempos de Galileo había sido planteado el problema de cómo serían interpretados los movimientos físicos y las leyes que los describen desde el punto de vista de dos observadores con un movimiento relativo uniforme, es decir, en movimiento relativo uno respecto del otro a una velocidad constante. Tanto para este como para el célebre físico inglés Isaac Newton (1643-1727), las leyes de la física eran las mismas para cualquier sistema de referencia inercial, entendiendo por tales tanto los referentes al reposo relativo como al movimiento rectilíneo uniforme. Esta concepción, conocida en Física como principio de relatividad galileano, habría de ser mantenida aún durante la formulación de la Teoría de la Relatividad de Einstein. Asimismo, para ambos científicos el valor tiempo y distancia entre dos puntos resultaba idéntico en todos los sistemas de referencia, una idea que sí se vería posteriormente desmentida durante la redacción de la nueva Teoría de la Relatividad. Según la relatividad de Galileo, la velocidad en los sistemas de referencia inerciales es un valor variable, mientras que la aceleración es invariable. Además, tal y como ya dijimos, las leyes básicas de la naturaleza son las mismas para los observadores de un sistema de referencia inercial; debido a esto, resultaba imposible saber si un sistema de referencia se correspondía con el reposo absoluto o a un movimiento rectilíneo uniforme.

Esta teoría de la relatividad de Galileo habría de ser tenida por cierta hasta mediados del siglo XIX; sin embargo, con la aparición de la electrodinámica descrita por Maxwell, surgirían las primeras contradicciones relacionadas con la velocidad de la luz y su movimiento. Según el científico inglés, la velocidad de la luz en el vacío se corresponde con el valor c, que es igual a 299.792.458 m/s. Sin embargo, de acuerdo con el principio de relatividad de Galileo, el valor de la velocidad de la luz resultaría variable dentro de un sistema de referencia inercial. De ser así, el valor de c solo sería correcto para un determinado sistema de referencia privilegiado; de lo contrario, la teoría de la relatividad de Galileo se revelaría como errónea. En esta época, la idea común era que c se correspondía con la velocidad de la luz para un sistema de referencia privilegiado en reposo respecto a un medio lumínico denominado éter. Con el fin de encontrar dicho sistema de referencia privilegiado y resolver así el problema de la contradicción entre la relatividad galileana y la electrodinámica de Maxwell, Albert A. Michelson diseñaría en 1881 su experimento del interferómetro, con el que pretendía conocer la velocidad de traslación de la Tierra respecto al éter. El fundamento del dispositivo de Michelson consistía en dividir un haz emitido por una fuente luminosa en dos proyecciones distintas para ser desviadas luego por caminos perpendiculares al atravesar un espejo semiplateado. Estos haces serían posteriormente reflejados por dos espejos y enfocados hacia un anteojo para observar los correspondientes patrones de interferencia provocados por los haces de luz. La intención de Michelson era hacer coincidir la dirección de uno de los haces con la del movimiento orbital de la Tierra para obtener así ciertas medidas de desplazamientos en el patrón de interferencia con las que deducir la velocidad de la Tierra respecto al éter lumínico. Finalmente, los primeros resultados de Michelson con el interferómetro serían negativos, es decir, no obtendría el desplazamiento de franjas en el patrón de interferencias que había esperado; para científicos como el neerlandés Hendrik A. Lorentz (1853-1928), dichos resultados eran debidos a posibles defectos de procedimiento, así como a ciertos errores matemáticos en el cálculo del haz perpendicular. Esto llevaría a Michelson a repetir nuevamente el experimento seis años después en compañía de un colaborador, el profesor de química Edward W. Morley. El segundo intento, conocido en la actualidad como experimento de Michelson y Morley, se realizaría a partir de un dispositivo óptico montado sobre un gran bloque de piedra suspendida en mercurio para reducir al máximo las vibraciones; sin embargo, y a pesar de las medidas adoptadas para evitar cualquier tipo de imprecisión, los resultados revelados en esta segunda ocasión serían una vez más negativos.

De acuerdo con las conclusiones obtenidas por Michelson y Morley en su experimento, no parecía existir un sistema de referencia privilegiado respecto al éter lumínico; todo parecía indicar que ni siquiera el propio éter debía de existir. Tal y como pudo observarse en aquella ocasión, la velocidad de la luz libre de cualquier resistencia era la misma para todo sistema de referencia inercial. Sin embargo, un planteamiento como este, en el que la relatividad de Galileo se veía negada, resultaba demasiado revolucionario para los científicos de aquella época. Esta razón llevaría a Michelson y a Morley a concluir que cualquier movimiento relativo entre la Tierra y el éter debía de ser imperceptible o inexistente, y que por tanto, ambos se encontraban respecto de sí en un reposo relativo. En cualquier caso, dos principios parecían quedar claros tras el experimento; la relatividad de Galileo no parecía cumplirse en el caso de la luz, y la velocidad de la luz resultaba constante en todo caso, independientemente del foco emisor. Para expertos como Hendrik Lorentz o el irlandés George F. Fitzgerald (1851-1901), tal situación podía ser explicada a partir de su hipótesis de la contracción de la longitud de los cuerpos en movimientos a través del éter (conocida también como contracción de Lorentz-Fitzgerald), propuesta por ambos de forma independiente tras conocer los resultados del experimento. Posteriormente, Albert Einstein abordaría esta misma hipótesis así como el problema del incumplimiento de la relatividad galileana en general a partir de un enfoque totalmente revolucionario; para el científico alemán, el hecho de que ninguno de los experimentos realizados hasta el momento hubiera dado con el ansiado sistema de referencia privilegiado indicaba con claridad que tal sistema sencillamente no existía. Por tanto, debía considerarse como sistema de referencia inercial únicamente a aquel que se correspondiera con un movimiento con velocidad relativa constante. De acuerdo con esto, Einstein establecería dos postulados principales en base a los cuales estructuraría toda su Teoría de la Relatividad Especial; en primer lugar, se consideraría a todas las leyes físicas como iguales para cualquier sistema de referencia inercial. En segundo lugar, habría de tener en cuenta a la velocidad de la luz en el vacío como idéntica para todos los sistemas de referencia inerciales e independiente del movimiento de la fuente emisora y del observador. Ambos principios, en apariencia intrascendentes, supondrían con el tiempo la reformulación teórica y conceptual de algunas de las nociones más básicas y consolidadas para la ciencia física, así como para la cultura moderna en general, incluyéndose entre ellas fundamentos tales como la masa y la energía, o más relevantes aún, el tiempo y el espacio.

Una de las principales conclusiones derivadas de la formulación de Einstein para una nueva Teoría de la Relatividad era que el tiempo no transcurría por igual en todos los sistemas de referencia como un valor absoluto. Asimismo, el espacio resultaba ser también un valor variable, es decir, que podía resultar disímil para sistemas inerciales diferentes y que, por tanto, dependía del sistema de referencia. Concretamente, los postulados de Einstein daban a entender que el valor tiempo era un factor relativo, es decir, que el intervalo acaecido entre dos sucesos dependía en todo caso del sistema de referencia; en el caso de dos observadores estacionarios resultaba igual si los sucesos ocurrían en el mismo punto, mientras que para dos observadores en movimiento relativo uno respecto al otro se revelaba como distinto. Las incoherencias relativas a la aplicación de la electrodinámica de Maxwell respecto a la relatividad de Galileo serían debidas por tanto a que el valor tiempo era considerado igual en todo caso. Gracias a la Relatividad de Einstein hoy sabemos que existe una relatividad del tiempo en este aspecto, consecuencia además de la existencia de una velocidad límite para el desplazamiento de la radiación electromagnética. Dicha relatividad se encuentra perfectamente ejemplificada en el fenómeno conocido como dilatación del tiempo, por el cual un observador estacionario comprueba como el reloj de otro se ralentiza al encontrarse en movimiento. Por su parte, la relatividad espacial supone la contracción de la longitud de un objeto en movimiento al ser medido desde un sistema de referencia con respecto al cual el objeto se mueve, un fenómeno conocido en física como contracción de la longitud y cuya formulación adelantarían ya Lorentz y Fitzgerald con su hipótesis de la contracción (hecho por el cual se denomina a la ecuación que lo representa fórmula de la contracción de Lorentz-Fitzgerald). Ambas manifestaciones confluyen en la que se supone es la paradoja más célebre de entre las surgidas tras la formulación de Einstein, es decir, la paradoja de los gemelos, en la cual dos hermanos nacidos en el mismo día, terminan teniendo edades distintas al ser separados por un viaje interestalar a velocidades cercanas a la de la luz. La relación entre las medidas halladas por dos observadores diferentes en un sistema de referencia inercial serían obtenidas tras la Teoría de la Relatividad a partir de un nuevo sistema matemático sustitutivo del de Galileo, denominado transformación de Lorentz (en honor a su autor, el científico neerlandés); la principal diferencia de este modelo respecto al anterior residiría en el diferente valor del factor tiempo en cada caso. Por otra parte, la veracidad de estas transformaciones quedaría comprobada si, al aplicárseles velocidades muchísimo menores que las de la luz, condujesen a transformaciones galileanas. De las transformaciones de Lorentz se deduciría posteriormente la famosa ecuación E = mc^2, (energía es igual a masa por c al cuadrado), según la cual cualquier variación en la energía se traduce en una variación de masa y viceversa, de forma que masa y energía son al final dos manifestaciones de un mismo fenómeno físico. La Teoría de la Relatividad Especial sería posteriormente demostrada a partir de ciertas evidencias científicas, como la detección en la superficie terrestre de muones procedentes de la radiación cósmica (un hecho solo posible gracias a los fenómenos de contracción de la longitud y dilatación del tiempo, dada la corta esperanza de vida de estas partículas), o el desfase de relojes atómicos durante el vuelo de dos jets alrededor del mundo en sentidos contrarios.

De esta forma, la Teoría de la Relatividad Especial supuso el fin de las incognitas relativas a la electrodinámica de Maxwell y el éter lumínico en su relación con la relatividad de Galileo y la mecánica clásica en general. Sin embargo, su promulgación y entrada en el ámbito científico significaría también la apertura de nuevas cuestiones para la física; muchas teorías científicas consolidadas por aquel entonces, como la ley de la Gravitación Universal de Newton, presentarían en ese momento importantes incoherencias respecto a la Relatividad Especial, lo cual empujaría al propio Einstein a elaborar una nueva Teoría de la Relatividad General que integrase en sí misma el fenómeno de la gravedad. Esta Relatividad General, formulada por el célebre científico entre los años 1907 y 1915, traería consigo toda una serie de predicciones certeras tales como la lente gravitacional (una deformación o amplificación de la imagen causada por la interposición de un cuerpo masivo respecto del objeto y su observador), los fenómenos de curvatura de la luz y disminución del tiempo por efecto de la gravedad, o indirectamente comprobadas como las ondas gravitacionales (ondulaciones en el espacio-tiempo producidas por un cuerpo masivo acelerado), así como el esclarecimiento de ciertos fenómenos hasta entonces inexplicados por la ciencia como las anomalías en la órbita de Mercurio. Por otra parte, supondría también la introducción a ciertas cuestiones no planteadas hasta entonces, como la conciliación de la nueva Relatividad con la física cuántica en una única teoría de la gravedad cuántica. La teoría de la Relatividad General sería también la base para el modelo estandar del Big Bang en cosmología, además de una herramienta fundamental a partir de entonces en astrofísica. Su formulación daría comienzo dos años después de la publicación de la Relatividad Especial a partir de la proposición del principio de equivalencia por parte de Einstein; según este, no existe una diferencia sustancial entre un observador sujeto a un campo gravitatorio determinado (por ejemplo, una persona en La Tierra) y otro sometido a una aceleración específica (por ejemplo, un piloto espacial cuya nave se encuentra en aceleración) en lo relativo a su aceleración, lo cual puede ser interpretado como una correspondencia respecto a un sistema de referencia no inercial para ambos observadores. De igual manera, tampoco existe diferencia entre un observador ingravido desligado de cualquier campo gravitatorio y un observador ingravido sujeto a un campo gravitatorio y en órbita (por ejemplo, los astronautas habitantes de la ISS) o en caída libre hacia el suelo en el interior de un habitáculo (por ejemplo, una persona atrapada en un ascensor precipitándose al vacío), puesto que en todo caso se corresponden con un sistema de referencia inercial al no encontrarse acelerados. Dicho principio explicaría el corrimiento al rojo sufrido por la luz a causa de la gravedad, o la dilatación del tiempo, entre otras cuestiones. Sin embargo, no explicaría el hecho de que dos observadores pudieran ser atraídos desde polos opuestos por un mismo objeto masivo, un fenómeno propio de los sistemas de referencia no inerciales para los que es necesaria la acción de una fuerza considerada ficticia. Tal fenómeno guarda relación con las diferencias de fuerzas responsables de las mareas oceánicas, hecho por el cual es conocido también como efecto de marea. Para explicar tal efecto y demostrar así la relación habida entre las fuerzas ficticias y los sistemas de referencia inerciales referentes a caídas libres, Einstein recurriría a una modalidad de las matemáticas denominada geometría de superficies, la cual implicaba la transmisibilidad de los casos de transición de un marco de referencia inercial (en el que las partículas se deslizan libremente en trayectorias rectas a velocidad constante) a un marco de referencia rotacional (en el cual se deben introducir términos extras correspondientes a las fuerzas ficticias con el fin de explicar el movimiento de las partículas), hacia un sistema de coordenadas cartesianas y curvilíneas repectivamente, o la relación de la fuerza de mareas con la curvatura de superficies. En base a ello, el autor de la Relatividad Especial trabajaría en la creación de una teoría geométrica aplicable a la gravedad.

Tradicionalmente, los objetos elementales de la geometría (puntos, líneas, planos, polígonos, etc) habían sido definidos en un espacio tridimensional o en una superficie de dos dimensiones. Sin embargo, en 1907 el matemático alemán Hermann Minkowski (1864-1909) introdujo una formulación geométrica de la teoría especial de la relatividad de Einstein que incluía no sólo el espacio sino también el tiempo. La entidad básica de esta nueva geometría era el espacio-tiempo de cuatro dimensiones. Asimismo, la generalización de la geometría de un plano respecto de la geometría de una superficie curva general había sido descrita anteriormente por el matemático, astrónomo y físico alemán Carl Friedrich Gauss (1777-1855) y extendida a su vez a espacios de más dimensiones a partir de los formalismos matemáticos introducidos por el también alemán y matemático Bernhard Riemann (1826-1866). A partir de estos precedentes, Einstein formularía una descripción geométrica de la realidad en la cual el espacio-tiempo de Minkowski sería generalizado hacia un espacio-tiempo curvo y distorsionado del tipo de Riemann, del mismo modo en que las superficies curvas podían generalizarse hacia superficies planas ordinarias. Poco después, publicaría además un método de descripción matemática para la curvatura del espacio-tiempo, conocido hoy como ecuaciones de Einstein. La comprensión de esta geometría gravitacional parte del empleo de las sondas o partículas de prueba (partículas influenciadas por la gravedad sin efecto gravitacional propio) como ejemplo; en ausencia de gravedad y otras fuerzas externas, una partícula de prueba se mueve a lo largo de una línea recta a una velocidad constante. En presencia de gravedad, sin embargo, el espacio es no-euclidiano o curvo, de forma similar en tres dimensiones a la superficie de una esfera. En este espacio las partículas de prueba se mueven a lo largo de líneas llamadas geodésicas (en su significado original, una geodésica es el camino más corto entre dos puntos en la superficie de la Tierra), que son lo más rectas posible. En este sentido, las propiedades de las geodésicas difieren de forma clara de las líneas rectas; por ejemplo, en un plano, las líneas rectas que comienzan en direcciones paralelas mantienen entre sí una distancia constante. En el caso de las geodésicas terrestres sin embargo, las líneas de longitud son paralelas en el ecuador, pero se entrecruzan en el polo. De esta forma, en la relatividad especial, las paralelas geodésicas siguen siendo paralelas, mientras que en un campo gravitacional con efectos de marea, no siempre es así; por ejemplo, si dos cuerpos, inicialmente en reposo caen en el campo gravitacional de la Tierra, se acercaran el uno hacia el otro mientras caen a su vez hacia el centro de de gravedad terrestre.

Posteriormente, la Teoría de la Relatividad General de Einstein sería demostrada a partir de varias pruebas clásicas, como la explicación del avance en el perihelio orbital de Mercurio, la desviación gravitacional de la luz, confirmada en primera instancia por el astrónomo británico Sir Arthur Eddington (1882-1944) a partir de sus estudios sobre eclipses solares de 1919, o el desplazamiento gravitacional de la luz al rojo, confirmada asimismo por el experimento de Pound-Rebka en 1959.

Ver también:
Masa y energía en la relatividad especial – Wikipedia
1915. El Universo relativista de Einstein – Elmundo.es
Caída libre de cuerpos – El rincón del vago

Entradas relacionadas:

Apuntes de Física: Teorías y leyes (1ª parte)
Apuntes de Física: Teorías y leyes (2ª parte)
Apuntes de Física: Teorías y leyes (3ª parte)
Apuntes de Física: Teorías y leyes (4ª parte)
Apuntes de Física: Teorías y leyes (5ª parte)
Apuntes de Física: Teorías y leyes (6ª parte)
Apuntes de Física: Teorías y leyes (8ª parte)

Otros apuntes en Diario de un explorador:

Apuntes de Física: Los orígenes del Universo (1ª parte)

Apuntes de Física: Teorías y leyes (6ª parte)

A partir del desarrollo teórico y el conocimiento experimental de la radiación electromagnética durante la segunda mitad del siglo XIX, surgirían ante la ciencia múltiples problemas y descubrimientos relacionados con el naciente campo de la electrodinámica. La mayoría de ellos obtuvieron su respuesta a la luz de las nuevas teorías, pero algunos de ellos, unos pocos, resultaron inexplicables para el paradigma teórico de la época; en concreto, estos casos serían el problema sobre la radiación del cuerpo negro, la cuestión del efecto fotoeléctrico, y el modelo atómico de Rutherford. Su resolución, junto con el desarrollo de las investigaciones acerca de la composición última de la materia, supondrían finalmente el inicio de una de las ramas físicas más importantes dentro del conjunto de innovaciones involucradas en la revolución científica del siglo XX; la física cuántica.

Ya en la 3ª parte de estos Apuntes de Física sobre Teorías y leyes, vimos de manera resumida en que consisten el problema de la radiación del cuerpo negro y la cuestión del efecto fotoeléctrico; para evitar la falla teórica conocida como catástrofe ultravioleta durante la interpretación del problema de la radiación del cuerpo negro mediante postulados de electrodinámica clásica, Max Planck (1858-1947) ideó en 1900 el concepto de cuantos de luz, y la ley sobre intensidad de radiación de un cuerpo negro (más conocida como Ley de Planck) de 1901, mientras que el famoso científico Albert Einstein (1879-1955) se valdría de estos mismos conceptos durante la elaboración de su artículo “Un punto de vista heurístico sobre la producción y transformación de la luz” de 1905 para la explicación del efecto fotoeléctrico. Ambas soluciones supondrían la adopción del cuanto de luz (posteriormente denominado fotón) como una realidad con carta de naturaleza, y en consecuencia, la reconsideración de todo el modelo teórico de la electrodinámica desde sus mismos fundamentos. Años más tarde, el físico danés Niels Bohr (1886-1962) daría un paso más en este sentido al proponer, en 1913, un nuevo modelo atómico sustitutivo del de Rutherford para el que el concepto de cuanto de luz resultaba fundamental; de acuerdo con las investigaciones del británico Ernest Rutherford (1871-1937) sobre la dispersión de rayos alfa en contacto con láminas de oro (Ver la entrada anterior de los apuntes), los electrones del átomo no se hallarían inmersos en una única masa de carga positiva, tal y como se establecía en un principio para el denominado modelo de Thomson, sino que, en realidad, dichas partículas se encontrarían flotando alrededor del núcleo en un movimiento presumiblimente orbital. Esta afirmación, junto con algunos otros postulados de carácter fundamental, supondrían la base teórica para el nuevo modelo atómico de Rutherford. Sin embargo, ciertas incoherencias, surgidas en parte de la intepretación del movimiento orbital de los electrones desde la electrodinámica clásica, acabarían convirtiendo en poco tiempo al modelo de Rutherford en un sistema obsoleto. De acuerdo con la física del momento, una partícula cargada y acelerada, como es el caso del electrón, emite radiación electromagnética a expensas de su energía, lo que significa que al agotarse esta, la partícula pierde su capacidad de movimiento. En el caso del electrón, dicha pérdida de movimiento tendría que traducirse en una caída hacia el núcleo y la consecuente desestabilización del átomo, algo que, por supuesto, no ocurre. Para explicar esto, Niels Bohr recurriría al cuanto de Planck, así como a un fenómeno inexplicado en física por aquel entonces, las líneas espectrales, para exponer en 1913 un tercer modelo atómico, el modelo de Bohr; según este, existen en el átomo órbitas permitidas en las que es posible que el electrón se mueva con celeridad constante sin emitir ningún tipo de radiación, lo que constituye para el átomo un estado estacionario (es decir, sus características no varían). Dichas órbitas permitidas son las únicas en las que el electrón puede moverse; su momento angular (cantidad de movimiento para un cuerpo de trayectoria curva) podrá medirse a partir de valores discretos, los cuales a partir de su relación con la constante de Planck permitirán obtener un número para la cuantización de los posibles valores del momento angular denominado número cuántico principal. En base a esto, el electrón orbital podrá pasar de una trayectoria permitida a otra absorbiendo (si se desplaza a una órbita superior) o emitiendo (si lo hace a una órbita inferior) energía cuantizada en forma de paquetes de luz o fotones. La actividad energética del electrón sería por otro lado la respuesta a los enigmáticos espectros de luz discontinuos, es decir, espectros electromagnéticos o franjas lineales del espectro para los que determinadas lineas o espectros de fondo (dependientes en todo caso del elemento o elementos químicos involucrados) resultaban ausentes, y que habían sido observados ya en las emisiones formadas por gases calientes o sometidos a una descarga eléctrica en tubos de baja presión; unas y otras mostraban ser el reflejo de la capacidad de absorción y emisión de energía por parte del electrón durante el cambio de órbita, representadas en el campo visual mediante espectros discontinuos (líneas de emisión y líneas de absorción). Los resultados obtenidos por Bohr se ajustarían así a las ecuaciones elaboradas por los científicos para la descripción de ciertas regularidades observadas en las líneas espectrales, como la descrita por el sueco Johannes Rydberg (1854-1919) en 1888 (fórmula de Rydberg), si bien su eficacia se limitaría únicamente al átomo de hidrógeno.

De esta forma, el cuanto de luz ideado por Planck provocaría una vez más el resurgir de las antiguas controversias acerca de la naturaleza ondulatoria o corpuscular de la luz en un momento en el que estas se creían superadas. Su resolución vendría dada en esta ocasión de la mano del científico francés Louis de Broglie (1892-1987), quien en su tesis doctoral de 1924 titulada “Investigaciones sobre la teoría cuántica” llegaría a la conclusión de que el mismo electrón poseía propiedades ondulatorias. La hipótesis de De Broglie establecía así una naturaleza dual de onda y corpúsculo tanto para la luz como para la materia (dualidad onda-corpúsculo), siendo avalada poco después de su publicación por la demostración empírica de la difracción de electrones. Estos precedentes harían surgir la necesidad de una nueva mecánica capaz de predecir y explicar el comportamiento de la realidad física a nivel cuántico o atómico, teniendo en cuenta además su naturaleza dual. Ese sería el objetivo de la física cuántica.

 

En esta misma época, algunos jovenes pioneros comenzaban a elaborar las primeras bases teóricas para la naciente mecánica cuántica. El primero de ellos, Werner Heisenberg (1901-1976), físico alemán experto en matemáticas, construiría su diseño a partir de la teoría de matrices (sistema matemático basado en tablas de números, utilizado por lo general para la descripción de ecuaciones lineales, seguimiento de coeficientes en una aplicación lineal, o registro de datos), contando para ello con la colaboración de los científicos Wolfgang E. Pauli (1900-1958), de Austria, y Max Born (1882-1970), de Alemania. La mecánica matricial de Heisenberg obtendría un importante éxito desde su publicación en 1925, si bien su concepción acerca del mundo cuántico terminaría por ser considerada obtusa e imprecisa entre la misma comunidad científica; para muchos, los intervalos de datos obtenidos a partir del sistema de matrices ideado por el premio Nobel resultaban insuficientes a la hora de reflejar los hechos, mientras que para otros representaban fielmente el carácter ambiguo de la propia realidad cuántica. El mejor ejemplo sobre esta cuestión lo presentaría el mismo Heisenberg al enunciar en 1927 su principio de incertidumbre, por el cual se establece la imposibilidad de determinación para ciertos pares de variables físicos relacionados con un objeto a nivel cuántico. Dicho principio sería también ilustrado a partir del conocido como experimento mental del microscopio de rayos gamma (un microscopio de rayos gamma no puede detectar electrones sin modificar su estado debido a la energía de sus fotones). En cualquier caso, uno y otro habrían de ser diferenciados siempre de la imprecisión del aparato o los posibles efectos del observador. El segundo de los grandes teóricos de estos años sería el físico austriaco nacionalizado irlandés Erwin Schrödinger (1887-1961), quien en oposición a la mecánica matricial de Heisenberg publicaría en 1926 su ecuación de mecánica ondulatoria. Esta nueva mecánica resultaría en la práctica mucho más sencilla que la matricial; además, Schrödinger tendría en cuenta en su diseño una interpretación ondulatoria de la propia materia. Posteriormente, Max Born perfeccionaría aún más este sistema al declarar que el único aspecto observable de la función de ondas de la mecánica ondulatoria es su cuadrado, siendo este en realidad una representación de la densidad de probabilidad existente a la hora de hallar una partícula en el espacio. Con todo, la ecuación de Schrödinger acabaría revelando al poco de su publicación ciertas taras atribuidas en un principio a la obra de Heisenberg; los resultados finales basados en números complejos dificultaban su interpretación a nivel físico, al tiempo que demostraba una ambigüedad cercana a la descrita por el propio principio de incertidumbre. Finalmente, sería necesaria la intervención de un nuevo aporte teórico para dar con el sistema cuántico apropiado.

Tras esta formación de bases establecidas durante las primeras décadas del siglo XX, serían varias las cuestiones, innovaciones y paradojas que cubrirían el nuevo campo de la física cuántica, así como algunos otros emparentados. A la luz de las teorías expuestas por Erwin Schrödinger y Max Born, por ejemplo, el modelo atómico de Bohr se vería necesariamente modificado para incluir el concepto de orbital atómico, una descripción ondulatoria del tamaño, forma y orientación del espacio en donde es probable encontrar un electrón. El problema de la partícula en una caja (también conocido como pozo de potencial infinito), en el que un electrón encerrado en una caja uni o multidimensional rebota sin perder energía planteaba un caso de solución intuitiva para la física clásica pero anti-intuitiva desde el punto de vista cuántico, al presentar en aquel ciertos patrones de probabilidad de ubicación y niveles de energía específicos dada su condición de onda estacionaria. En el caso del pozo de potencial finito, cuyos límites no poseen el potencial infinito del anterior, la partícula puede escapar de nuevo anti-intuitivamente al atravesar parcialmente sus muros. Otra variante del pozo de potencial conocida como efecto túnel, en el que la partícula encerrada logra superar totalmente las barreras de potencial finito, serviría al físico y astrónomo ucraniano George Gamow (1904-1968) en su explicación de las reacciones espontáneas propias de la desintegración alfa, así como en la creación de un microscopio para la visualización a escala atómica, el microscopio de efecto túnel.

La física cuántica fundaría así sus propias bases hasta constituir un primer modelo considerado `clásico´. Sin embargo, sería necesario aún una reformulación de sus sistemas teóricos para conseguir un diseño práctico y comprensible. Esta labor recaería finalmente en manos del físico británico Paul Dirac (1902-1984), quien con su sistema de notación bra-ket, basado en paréntesis, lograría una modernización del lenguaje utilizado para el tratamiento de problemas cuánticos. Dicho sistema incluiría muchos de los conceptos considerados hoy básicios en el estudio de la física cuántica; el estado cuántico, por ejemplo, que indica los valores específicos de las propiedades físicas observables en un sistema cuántico. El observable, descrito como toda propiedad del estado de un sistema que puede ser determinada por alguna secuencia de operaciones físicas. Los estados propios o autoestados, es decir, aquellos estados cuánticos que no cambian al medir el observable asociado a ellos y que se corresponden con ciertos valores concretos de dicho observable, denominados valores propios o autovalores. La superposición cuántica, que define la posesión simultánea de dos o más valores por parte de un observable… etc. Muchos de estos conceptos son además aplicables en el marco de los espacios de Hilbert, una generalización de la geometría euclidea creada para la aplicación de conceptos geométricos y algebraicos a espacios de dimensiones arbitrarias. Esta noción, denominada así en honor del matemático alemán David Hilbert (1862-1943), resultaría de importancia crucial en la formulación matemática de la mecánica cuántica. Otro concepto de gran relevancia en el proceso de mejora y remodelación de esta rama física sería el del principio de exclusión de Pauli de 1925, por el cual dos fermiones no pueden ocupar el mismo estado cuántico en un átomo; es por esto que para cada espacio o tipo de orbital, solo es posible la existencia de, como máximo, dos electrones de spin contrario. Diez años más tarde, Erwin Schrödinger contribuiría a enriquecer aún más el amplio número de principios y paradojas inherentes al mundo de la mecánica cuántica al exponer su famoso experimento mental conocido como gato de Schrödinger, según el cual un gato, encerrado en una caja y sujeto a un sistema de envenenamiento regido por reacciones propias de la física cuántica, puede hallarse, bajo cierta interpretación, vivo y muerto simultáneamente. La paradoja del gato de Schrödinger es todavía hoy objeto de múltiples controversias.

Actualmente, la física cuántica tiene su aplicación en campos tan diversos como la informática (computación cuántica), la química (química cuántica), la electrónica (electrónica cuántica), la teoría de la información o la criptografía (criptografía cuántica, entrelazamiento cuántico), entre otros.

Ver también:
El jardín de los mundos que se ramifican: Borges y la mecánica cuántica

Entradas relacionadas:

Apuntes de Física: Teorías y leyes (1ª parte)
Apuntes de Física: Teorías y leyes (2ª parte)
Apuntes de Física: Teorías y leyes (3ª parte)
Apuntes de Física: Teorías y leyes (4ª parte)
Apuntes de Física: Teorías y leyes (5ª parte)
Apuntes de Física: Teorías y leyes (7ª parte)
Apuntes de Física: Teorías y leyes (8ª parte)

Otros apuntes en Diario de un explorador:

Apuntes de Física: Los orígenes del Universo (1ª parte)

In hiding – Pearl Jam

Apuntes de Física: Teorías y leyes (5ª parte)

Los comienzos de la Física nuclear, así como de la Física de partículas, se remontan a las últimas décadas del siglo XIX. Concretamente, suele considerarse el descubrimiento de la radiactividad por parte del físico francés Henri Becquerel (1852-1908) en 1896 como el hito inicial que daría pie al desarrollo de ambas ramas de la física, e incluso para algunos, de la propia Era atómica. Un año antes, en 1985, el alemán Wilhelm Conrad Röntgen (1845-1923) había logrado producir por primera vez y de manera artificial un nuevo tipo de radiación de frecuencia superior a la ultravioleta, conocida hoy como rayos X; esto impulsó a muchos científicos de la época, como Becquerel, a la búsqueda de nuevos medios para la producción de estos rayos, siendo la opción del físico francés la del estudio de las emisiones fosforescentes en las sales de uranio. De manera fortuita, Becquerel descubrió que no era necesario que la luz del Sol incidiera en las sales para que estas emitieran su radiación, y que por tanto, dicha radiación, capaz de impresionar placas fotográficas, ionizar gases o atravesar cuerpos opacos, procedía directamente de la propia materia.

Rápidamente, el hallazgo de Becquerel condujo a que varios miembros de la comunidad científica se interesaran por el fenómeno, entre los cuales destacarían el británico Ernest Rutherford (1871-1937) y el matrimonio formado por el francés Pierre Curie (1859-1906) y la también francesa, aunque nacida en Polonia, Marie Curie (1867-1934). Entre los los principales logros alcanzados por el matrimonio Curie, dentro de una vida dedicada de lleno al estudio de la radiactividad, destacan la identificación del torio como elemento radiactivo y el descubrimiento de otros dos elementos con la misma propiedad, el polonio (llamado así en honor a la patria natal de Marie) y el radio. Las aportaciones más destacadas de Rutherford en este nuevo campo de la física comienzan en 1898 con el reconocimiento de dos clases distintas de fenómeno radioactivo a las que denominó radiación alfa y radiación beta. A estos dos tipos de radiación se le uniría un tercero en 1900, cuando el científico francés Paul Villard (1860-1943) descubrió los rayos gamma durante un estudio sobre las emisiones del radio. Tanto las radiaciones alfa y beta como los rayos gamma se explican a partir de la constitución del núcleo atómico y de la fuerza física que lo sostiene; la interacción nuclear fuerte. Ninguna de las fuerzas físicas conocidas hasta ese momento explican de forma coherente la unión entre protones y neutrones en el átomo; la interacción electrostática es repulsiva en el caso de los protones, y la fuerza gravitatoria resulta insuficiente para contrarrestar a aquella al ser unas 10^ -36 veces menor en una distancia tan cercana. Solo el posterior conocimiento del núcleo atómico y de la fuerza nuclear que lo liga podría explicar el fenómeno de la radiactividad. La interacción nuclear fuerte se caracteriza por ser atractiva, de gran intensidad y de muy corto alcance (del orden del fermi); bajo su acción, la densidad de los núcleos resulta ser constante e independiente del número de nucleones (protones y neutrones), siendo el enlace entre estos de la misma intensidad y naturaleza en todo caso. El efecto de la interacción nuclear fuerte es unas 100 veces mayor que el de la repulsión eléctrica (lo que explicaría su poder de unión entre protones, a pesar de las cargas), y resulta en sí mismo repulsivo a partir de una determinada distancia (alrededor de los 0,4 fm) conocida como distancia de equilibrio (tras la cual su intensidad aumenta de modo indefinido). A parte de esto cabe destacar que, en la unión entre nucleones, la masa total del núcleo es siempre menor que la suma de las masas de sus componentes; esto se debe a que, en el proceso de generación del núcleo, parte de la masa de los nucleones originales pasa a convertirse en energía de enlace, lo que se conoce en física nuclear como defecto de masa.

De esta forma, la interacción nuclear fuerte explica la unión entre los componentes del núcleo atómico y su energía intrínseca, pero, ¿De dónde proviene exactamente la radiación? ¿Qué procedimiento hace que de esta unión se desprenda posteriormente distintas partes de materia y energía? La respuesta a estos interrogantes se encuentra en el neutrón y su función estabilizadora dentro de la composición del núcleo; debido a las limitaciones de su alcance, la interacción nuclear fuerte no es capaz de cohesionar un núcleo atómico formado exclusivamente por protones, ya que, de ser así, la repulsión electrostática de estos sería tan elevada que acabaría venciendo a la fuerza nuclear. Sin embargo, los neutrones, que no poseen carga eléctrica, aportan parte de la interacción nuclear fuerte al átomo sin generar con ello ningún tipo de repulsión electrostática. Es por esto que, para alcanzar cierta estabilidad en su núcleo, un átomo debe de contener un número más o menos similar de protones y neutrones. Para los núclidos (posibles especies nucleares de un elemento químico) más pequeños, el número de protones y neutrones es el mismo; sin embargo, a medida que aumenta la cantidad de protones, la creciente repulsión electrostática hace necesario un número cada vez mayor de neutrones. Por otra parte, a pesar de su función estabilizadora, los neutrones son en sí mismos partículas inestables, que de no tener próximo un nucleón de carga positiva, pierden su naturaleza neutra y pasan a convertirse en protones, emitiendo una partícula beta (electrón) durante el proceso. Todo esto lleva a que, para un determinado número atómico (número de protones en el núcleo), más concretamente a partir del elemento químico número 83, el bismuto, la cantidad de neutrones resulte excesiva, siendo entonces necesario recurrir o bien a la expulsión de partículas alfa, o bien a la desintegración de neutrones para recuperar la estabilidad en el núcleo. Precisamente ambos procesos serían los que Ernest Rutherford habría descubierto poco después del hallazgo de Becquerel, e identificado posteriormente como radioactividad. La radiación alfa supone la expulsión de átomos de helio completamente ionizados, emitidos a una velocidad próxima de 16.000 km/s y con una baja capacidad de penetración en la materia (en general, no traspasan el grosor de varias hojas de papel), siendo su carga eléctrica positiva. La radiación beta se corresponde con la emisión de electrones durante la conversión de los neutrones en electrones, protones y antineutrinos (desintegración beta); puede alcanzar una velocidad próxima a los 260.000 km/s, es frenada por una lámina delgada de metal y posee carga eléctrica negativa. A estas dos reacciones habría que añadir la radiación gamma de Villard, de naturaleza electromagnética y con una gran energía y poder de penetración sobre la materia (solo es frenado por planchas de plomo o muros gruesos de hormigón). En conjunto, los tres tipos de reacciones mencionados constituyen el conjunto de lo que se conoce como radioactividad. Estudios posteriores al descubrimiento de Becquerel revelarían además cómo las citadas reacciones resultan ser independientes de la presión o temperatura ambiente, así como del hecho de que la sustancia emisora participe en reacciones químicas o disoluciones. Tanto el propio Rutherford como su colega durante las investigaciones, el inglés Frederick Soddy (1877-1956), contribuirían con el paso de los años al desentrañamiento de fenómeno radiactivo con numerosos principios y leyes; en 1903, ambos científicos publicarían un artículo conjunto titulado “La causa y naturaleza de la radiactividad” en el que se establecían las bases de las leyes de desplazamiento radiactivo modernas. De acuerdo con estas, los elementos químicos correspondientes a átomos radioactivos pueden variar su posición en la tabla periódica según el tipo de radioactividad; si un núcleo radiactivo emite una partícula alfa, el elemento resultante se desplaza dos lugares a la izquierda en el sistema periódico, disminuyendo dos unidades en su número atómico y cuatro en su masa. Si emite un electrón beta, se desplaza un lugar a la derecha, aumentando en una unidad su número atómico sin alterar su masa. Si emite radiación gamma, se desexcita energéticamente sin sufrir transmutación alguna. Gracias nuevamente a Rutherford, se introduciría el concepto de período de semidesintegración o semivida (tiempo que tarda en desintegrarse la mitad de los nucleos iniciales de una sustancia) al descubrir en 1904 que la actividad de un cuerpo radiactivo disminuía exponencialmente con el tiempo. Y también a partir de las investigaciones sobre la desviación de rayos alfa en su encuentro con láminas de mica, el premio Nobel británico lograría establecer uno de los principales hitos en el desarrollo de la física nuclear y de la física moderna en general; el descubrimiento del núcleo atómico.

La desviación de partículas alfa en su contacto con cierto materiales revelaba una fuerza eléctrica muy intensa en sus componentes; para 1907, este hecho supondría la apertura de una línea de investigación que, tan solo dos años más tarde, mediante la experimentación con láminas de oro, llevaría al descubrimiento de la constitución interna de los átomos. Para entonces varios científicos habían sentado ya algunos precedentes de importancia; en 1886, el físico alemán Eugen Goldstein (1850-1930) observaría por primera vez los rayos canales, compuestos por cationes, al perforar el cátodo en un tubo de rayos catódicos. Durante sus observaciones, Goldstein comprobaría también que la relación carga/masa de las nuevas partículas positivas dependía del gas que se encerrase en el tubo y aumentaba además con su masa atómica, a diferencia de lo que ocurría con los rayos catódicos. En 1897, el británico Joseph John Thomson (1856-1940) midió la relación carga/masa de los rayos catódicos y demostró su naturaleza corpuscular, descubriendo así el electrón. En 1909, el estadounidense Robert Millikan (1868-1953) determinaría la carga del electrón al mantener en suspensión pequeñas gotas de aceite en un medio gaseoso gracias a la acción de un campo eléctrico vertical (experimento de la gota de aceite). El mismo año del experimento de Millikan, Ernest Rutherford daba comienzo a sus estudios sobre la desviación de partículas alfa en láminas de oro con la colaboración del investigador alemán Hans Geiger (1882-1945) y del británico Ernest Marsden (1889-1970); para ello, este grupo de científicos diseñaría un dispositivo compuesto por una caja de plomo, en cuyo interior se alojaría el producto emisor de rayos alfa (polonio según algunas fuentes, bismuto según otras), un detector-contador de partículas, una pantalla de sulfuro de cinc, y una lámina de oro de unos 200 átomos de grosor. De acuerdo con el modelo atómico propuesto por J.J. Thomson en 1904, según el cual las partículas elementales de la materia consistirían en un diminuto cuerpo de 10^ (-10) m de diámetro con los electrones distribuidos sobre una masa homogénea de carga positiva, la desviación de las partículas alfa debía ser mínima dada la diferencia de su masa (8.000 veces la del electrón) y el alcance de su velocidad (20.000 km/s). Esto resultó ser así para la mayoría de los casos; sin embargo, un pequeño porcentaje de las partículas emitidas por el sistema presentaban desviaciones con un ángulo superior a los 90º, y algunas de ellas (un 0,005 %) incluso rebotaban. En consecuencia, Rutherford concluiría que el modelo de J.J. Thomson resultaba erróneo, siendo los átomos en realidad un compuesto formado por un núcleo de carga positiva y un número de electrones en suspensión cuyo volumen final podía considerarse como espacio vacío; así, las partículas alfa atravesarían el espacio vacío de los átomos de oro en la mayoría de las ocasiones, siendo los casos excepcionales el resultado de un choque fortuito con el núcleo. Todo ello quedaría expuesto en 1911 en un nuevo modelo para partículas fundamentales conocido como modelo atómico de Rutherford, y, lo que es más importante, supondría la primera inclusión del concepto de un núcleo atómico con átomos oscilantes en un modelo de estas características. Investigaciones posteriores darían a conocer con mayor detalle la naturaleza física del núcleo y su composición; Ernest Rutherford descubriría el protón al examinar los resultados de sus estudios sobre emisiones de partículas alfa contra gas de nitrógeno de 1918, mientras que el físico inglés James Chadwick (1891-1974) haría lo propio con el neutrón en 1932 al reinterpretar los datos obtenidos por los franceses Fréderic Joliot (1900-1958) e Irène Joliot-Curie (1897-1956) al bombardear nucleos de berilio y parafina con partículas alfa. Otros datos de interés acerca del núcleo atómico recabados durante esta época serían el de su tamaño, de aproximadamente 10^(-15) metros, su densidad, de 2,4 x 10^17 kg/m^3, y su forma, básicamente esférica aunque de bordes difusos.

La sucesión de descubrimientos sobre el átomo y su increible potencial energético a principios del siglo XX se vería rápidamente traducido a todo un conjunto de inventos y aplicaciones prácticas. Gracias a los conocimientos aportados por la ley de la desintegración radiactiva y a los estudios sobre descomposición de materiales radiactivos en general se hizo posible para los científicos averiguar la antigüedad de ciertos restos arqueológicos, siendo la datación arqueológica del carbono-14 su método más famoso. A esto contribuiría también los estudios sobre series radiactivas (serie de elementos químicos relacionados en un proceso de desintegración radiactiva) y la ley de la geocronología (que estudia la formación de dichas relaciones durante el proceso). También gracias al desarrollo de este campo de la física se daría la aparición de nuevas ramas en el ámbito de la ciencia médica, como es el caso de la medicina nuclear, o la ampliación de otras ya conocidas, como la radiología. Pero sin duda, el mayor impacto social y cultural derivado de los estudios sobre el átomo vendría dado por la explotación de su potencial energético; para ello sería necesario que científicos como sir John Cockcroft (1897-1967), de origen británico, y Ernest Walton (1903-1995), irlandés, (ambos célebres por sus experimentaciones acerca del bombardeo de partícular aceleradas de 1932), o los alemanes Otto Hahn (1879-1968) y Fritz Strassmann (1902-1980), pioneros, junto con la sueca Lise Meitner en la fisión por inducción del núcleo, establecieran las bases para el control técnico de las reacciones nucleares artificiales. El trabajo de esta generación de científicos daría lugar al conocimiento de los dos procesos físicos mediante los cuales es posible hoy obtener energía del núcleo atómico: la fisión y la fusión nuclear. En la fisión nuclear, el núcleo de un elemento radiactivo es desestabilizado por el choque de un neutrón. Cuando las fuerzas de repulsión tras el choque son mayores que las de atracción, se produce su división en dos núcleos menores, liberándose durante el proceso gran cantidad de energía y emitiéndose a su vez numerosos neutrones. Esta emisión de neutrones supuso para los científicos un problema considerable, ya que, al ser liberados de forma incontralada en un medio con material radiactivo, podía provocar la desestabilización de otros núcleos de manera exponencial, liberando con ello una cantidad excesiva de energía por reacción en cadena. Para evitar esto, era necesario absorber el mayor número posible de neutrones emitidos durante la fisión, una cuestión resuelta posteriormente por el italiano Enrico Fermi (1901-1954), y el húngaro-estadounidense Léo Szilárd (1898-1964), al idear la inclusión de grafito y barras de cadmio para la relentización y absorción de neutrones, respectivamente, en su diseño del primer reactor nuclear funcional (fisión en cadena controlada). La fusión nuclear supone la formación de núcleos atómicos complejos a partir de la unión entre otros más simples, tal y como describirían Fritz Houtermans (1903-1966), polaco, y Robert Atkinson (1898-1982), británico, en su artículo de 1929 sobre las reacciones de fusión en los núcleos estelares. Existen varios procesos a través de los cuales la fusión nuclear es posible, aunque se considera a la cadena protón-protón (Apuntes de Física: Los Orígenes del Universo – 7ª parte) el más importante de todos ellos. La energía emitida durante el proceso de fusión resulta además enorme debido al defecto de masa entre los productos y los reactivos involucrados, sobrepasando con diferencia la producción correspondiente a la ingeniería conocida en el momento de su descubrimiento; sin embargo, las altas condiciones de temperatura y presión necesarias para que el proceso de fusión sea posible y el tipo de tecnología correspondiente hacen que esta forma de obtención de energía no haya podido resultar rentable hasta el presente.

Con el tiempo, el desarrollo técnico en materia de producción y control de energía nuclear supondría la aparición de las primeras centrales nucleares en los países desarrollados, un modelo de instalación acreditada ante la sociedad por su supuesta limpieza y eficiencia, así como por su facultad liberadora frente a los hidrocarburos. Sin embargo, estos complejos industriales no tardarían en mostrar con los años sus correspondientes contrapartidas; los métodos de extracción del uranio (el principal combustible de las centrales nucleares) resultaban agresivo con el entorno, necesitándose remover una cantidad de tierra considerable para obtener un mínimo de material radiactivo. Los residuos de este mismo combustible resultaron ser altamente contaminantes, siendo además su procesado un auténtico problema debido a la lentitud de su descomposición. Aparte de todo esto, y a pesar de las altas medidas de seguridad adoptadas en este tipo de instalaciones, un posible accidente nuclear podía desencadenar consecuencias devastadoras para el entorno, tal y como se pudo comprobar en los casos de Three Miles Island (EEUU) de 1979, o Chernóbyl (Ucrania), en 1986. La futura proliferación de armamento nuclear durante la Segunda Guerra Mundial, promovidas en Estados Unidos a través del proyecto Manhattan (cuya dirección científica correría a cargo del físico estadounidense Robert Oppenheimer), así como de los proyectos Uranio y Borodino de Alemania y la Unión Soviética, las famosas detonaciones de Hiroshima o Nagasaki, o la escalada armamentística durante la Guerra Fría no harían sino profundizar, en este sentido, el descontento popular frente a la energía nuclear y provocar los actuales movimientos sociales partidarios de su abolición.

Ver también:

Wikipedia _ Guerra Nuclear

Entradas relacionadas:

Apuntes de Física: Teorías y leyes (1ª parte)
Apuntes de Física: Teorías y leyes (2ª parte)
Apuntes de Física: Teorías y leyes (3ª parte)
Apuntes de Física: Teorías y leyes (4ª parte)
Apuntes de Física: Teorías y leyes (6ª parte)
Apuntes de Física: Teorías y leyes (7ª parte)
Apuntes de Física: Teorías y leyes (8ª parte)

Otros apuntes en Diario de un explorador:

Apuntes de Física: Los orígenes del Universo (1ª parte)

Esclareciendo la materia oscura

Me ha parecido interesante esta noticia del diario elpaís.com: Un balón de materia oscura rodea la Vía Láctea. Según parece, las irregularidades de este halo de materia invisible y su orientación obliga a los científicos a replantear su teoría acerca de la formación de nuestra galaxia.

Además, entre las publicaciones de hoy, se encuentra otro curioso titular: Un eclipse estelar cada 27 años.

Seguir

Recibe cada nueva publicación en tu buzón de correo electrónico.