Apuntes de Física: Teorías y leyes (8ª parte)

En la Antigua Grecia, dos teorías contrapuestas integraban el ámbito de la cosmología: la teoría geocéntrica y la teoría heliocéntrica. Según la teoría geocéntrica, tal y como fue concebida durante la Grecia Clásica, la Tierra suponía el centro de todo el Universo, alrededor del cual giraban los cuerpos celestes. Algunos de sus partidarios serían el filósofo Platón (427/428 a.C. – 347 a.C.), o Eudoxo de Cnidos (390 a.C. – 337 a.C.), discípulo de aquel. Sin embargo, su formulación más extendida vendría dada por el filósofo Aristóteles (382 a.C. – 322 a.C.). Según la cosmología aritstotélica, el universo estaba formado por los cuatro elementos de la región terrestre (tierra, agua, aire y fuego) más la quinta esencia (el éter), que era el elemento celestial. Alrededor de la Tierra, – una esfera concéntrica en reposo -, rotaban el resto de bóvedas superiores, cada una de las cuales albergaba uno de los astros cercanos conocidos (la Luna, el Sol, Mercurio, Venus, Marte, Júpiter y Saturno); la última esfera contenía a las estrellas, siendo su movimiento propio el impulsor del resto, hecho por el cual era conocida en astronomía antigua como `primum mobile´ o “primer motor“. Elementalmente, la cosmología aristotélica, unida a una serie de influencias externas posteriores, supondría el principal modelo para gran parte del mundo antiguo, la Europa medieval e incluso la civilización islámica. Sin embargo, en su concepción original, dicho modelo adolecería de ciertas incoherencias, derivadas en lo principal de las observaciones sobre el movimiento retrógrado efectuado en ciertos momentos por los planetas, o su cambio de brillo, asociado correctamente con la variación de su distancia respecto a la Tierra. Por otra parte, los partidarios de la teoría heliocéntrica proponían que el Sol era realmente el centro del Universo, alrededor del cual giraba la Tierra y otros astros en movimientos circulares de traslación y rotación. Esta teoría sería expuesta ya en el siglo III a.C. por el matemático y astrónomo griego Aristarco de Samos (310 a.C. – 230 a.C.), quien se basaría en las ideas previas del astrónomo y filósofo Heráclito de Ponto (390 a.C. – 310 a.C.) – según el cual el Sol giraba alrededor de la Tierra, y los planetas a su vez alrededor de aquel – para su formulación. Sin embargo, el hecho de que la observación aparente de los astros favoreciera al modelo geocéntrico, cierta actitud antropocéntrica de los pensadores, y la inobservancia del paralaje (diferencia de posición aparente de un astro según el punto de observación) esperado en las estrellas debido al movimiento de traslación de la Tierra, entre otras cuestiones, llevaron al modelo heliocéntrico al olvido en cosmología durante varios siglos.

A partir del siglo II de nuestra era, la teoría geocéntrica cobraría una mayor credibilidad gracias al enfoque empirista y técnico aportado por el astrónomo, químico, matemático y geógrafo greco-egipcio Claudio Ptolomeo(100 – 170) en su famoso tratado Almagesto. Según esta versión, los planetas girarían alrededor de la Tierra en una órbita circular denominada deferente, mientras efectúan un movimiento circular menor alrededor de su posición orbital conocido como epiciclo; tal combinación explicaría el efecto retrógrado percibido en estos astros al ser observados desde nuestra posición. Para algunos, la idea de los epiciclos resultaba un artificio forzado; sin embargo, la teoría perdudaría durante siglos, consolidándose hasta la época del Renacimiento. En este tiempo, el modelo heliocéntrico recuperaría nuevamente su presencia en cosmología para, – tras un largo proceso de cuestionamiento y apertura social no exento de polémicas-, instaurarse de forma definitiva. El principal artífice de este renacimiento de la teoría sería el clérigo, político, diplomático y científico multidisciplinar polaco (prusiano, o prusiano-polaco según otras versiones) Nicolás Copérnico (1473 – 1543), quien el mismo año de su muerte publicaría una versión renovada del modelo heliocéntrico en la obra De revolutionibus orbium coelestium. En esta ocasión, la teoría copernicana ofrecía la ventaja de plantear un sistema celeste mucho más sencillo, armonioso y elegante que el ptolemaico, – cualidades estas muy valoradas en aquella época – ; aparte, gracias al nuevo modelo, era posible explicar el movimiento retrógrado de los planetas como un efecto óptico producido por el adelantamiento de uno de estos astros a otro con una órbita de menor interioridad respecto al Sol. Este sistema mantendría algunos de los desaciertos propios de los modelos anteriores, como los epiciclos o las órbitas circulares; sin embargo, serviría también para introducir novedades certeras como los periodos orbitales o las distancias planetarias al Sol. La Revolución Copernicana o Revolución Científica iniciada por Copérnico en el siglo XVI daría pie en los siguientes siglos a que muchos otros astrónomos publicaran grandes obras sobre el movimiento de los astros y sus sistemas, una tendencia cuyo ascenso alcanzaría su culminación en la publicación a finales del siglo XVII del sistema newtoniano.

El matemático y astrónomo alemán Johannes Kepler (1571 – 1630) introduciría importantes cambios en el modelo copernicano gracias en parte al estudio de los datos sobre movimientos planetarios recopilados por el astrónomo danés Tycho Brahe (1546 – 1601) – considerados de gran valor y precisión para la época – a lo largo de su vida. Kepler contribuiría de manera determinante en el desarrollo de la revolución copernicana con la formulación de sus leyes sobre los movimientos planetarios, – surgidas a partir de los datos de Brahe, y en especial, del examen de Kepler sobre la órbita de Marte – , y su aplicación a la teoría heliocéntrica. Tales leyes, publicadas en la obra Astronomia Nova de 1609 (la primera y la segunda), y en Harmonices Mundi de 1619 (la tercera) expondrían; que los planetas se mueven en órbitas elípticas alrededor del Sol, el cual se sitúa en uno de los focos (Primera ley), que la recta que une el planeta con el Sol barre áreas iguales en tiempos iguales (Segunda ley), y que los cuadrados de los períodos orbitales de los planetas son proporcionales a los cubos de sus distancias medias al Sol (Tercera ley). Gracias a Kepler, la elipse acabaría estableciéndose como la descripción más adecuada para el recorrido orbital de los planetas, y su teoría de los movimientos, como un preludio fundamental a los grandes sistemas posteriores. El astrónomo germano idearía además su propio modelo heliocéntrico, basado en la superposición de esferas insertas en poliedros perfectos o sólidos platónicos cuyo número de caras aumentaba con la altura; tal modelo quedaría expuesto principalmente en la obra Misterium Cosmographicum de 1596 y, ampliada después en Harmonices Mundi. Al mismo tiempo, el astrónomo, filósofo, matemático y físico italiano Galileo Galilei (1564 – 1642) defendería a partir de sus pruebas y estudios astronómicos la tesis heliocéntrica, publicando sus argumentos en la obra Diálogos sobre los dos grandes sistemas del mundo de 1632. Tal publicación le supondría posteriormente un proceso frente a la Iglesia, siendo por ello objeto de acusasiones, juicios y amenazas de tortura, hasta el punto de abjurar; tras dicho proceso, Galileo sería confinado en su residencia de Florencia de por vida. Anteriormente, gracias a su construcción pionera del telescopio, el científico pisano observaría por primera vez algunos de los elementos más importantes de nuestro Sistema Solar como los satélites galileanos (Europa, Ío, Ganímedes y Calisto) de Júpiter, las fases de Venus, las manchas solares o el relieve lunar, y comprobaría por sí mismo además la tremenda lejanía de las estrellas de la Vía Láctea y su cantidad; tales descubrimientos serían descritos en obras como el Mensajero Sideral, de 1610, o El Ensayador, de 1623. Galileo publicaría también importantes estudios sobre física, como el principio de inercia y la caída libre de los cuerpos. Por todo ello, y en especial por su concepción acerca de la metodología científica y la experimentación, Galileo Galilei acabaría por ser considerado posteriormente – junto con otras importanes figuras de su tiempo, como el filósofo y teórico inglés Francis Bacon (1561 – 1626)- , padre de la ciencia moderna.

Las leyes de Kepler supondrían la primera descripción cinemática del movimiento planetario en la historia científica. Su mismo autor atribuiría el origen de dicho movimiento al Sol, basándose para ello en la disminución de la fuerza cinética de los planetas con la distancia respecto al astro, al igual que la luz. En su búsqueda de una explicación para su origen, Kepler recurriría a los estudios de 1600 sobre magenismo terrestre del físico y médico inglés William Gilbert (1544 – 1603) para postular que la acción cinética del Sol sobre los planetas resultaba ser magnética. Esta suposición vendría a ser refutada décadas más tarde gracias a la aportación, paradigmática y fundamental en ciencia, del físico, filósofo, inventor, alquimista y matemático inglés Sir Isaac Newton (1643 – 1727), quien a partir de las aportaciones del científico multidisciplinar inglés Robert Hooke (1635 – 1703) y su compatriota astrónomo, Edmund Halley (1656 – 1742), elaboraría su teoría sobre el origen de los movimientos sidéreos; Hooke y Halley habían supuesto ya que la fuerza que determinaba el movimiento de los planetas era atractiva y centrípeta, y que disminuía asimismo conforme al cuadrado de la distancia. Sin embargo, sería finalmente Newton – gracias en parte a su intuición sobre el movimiento orbital como una forma de caída libre – quien atribuiría acertadamente dicho origen a la fuerza de la gravedad. En el tercer libro de su obra de 1687, Philosophiae naturalis principia mathematica, Newton desarrollaría toda una serie de proposiciones y postulados que, con el tiempo, se sintetizarían en una sola ley de la gravitación universal. Dicha ley, determina que la interacción gravitatoria entre dos cuerpos es atractiva y puede expresarse mediante una fuerza central directamente proporcional a las masas de los cuerpos e inversamente proporcional al cuadrado de la distancia que los separa. La fórmula resultante de esta proposición incluiría la constante G – equivalente a 6,67 x 10^-11 N^2/kg^2 – , conocida también como constante de gravitación universal, obtenida por el físico y químico británico Henry Cavendish (1731 – 1810) gracias a su experimento de la balanza de torsión (una vara horizontal sujeta por un hilo con dos esferas metálicas en sus extremos, cuya torsión, producida por la atracción gravitatoria de otras dos esferas de plomo, permitiría deducir tal constante). Posteriormente, se introduciría el concepto de campo gravitatorio para explicar la interacción gravitacional, basándose para ello en la idea de campo propuesta por el físico y químico británico, pionero en electromagnetismo y electroquímica, Michael Faraday (1791 – 1967). La ley de la gravitación universal de Newton avalaría las ideas de Galileo relativas a la caída libre, – entre las cuales destacaría la afirmación de que dos sustancias de masas distintas arrojadas al vacío desde un mismo punto llegan simultáneamente al suelo -; concretamente, se llegaría a comprobar que la aceleración con que cae a tierra un objeto solo depende de la masa de la Tierra y no de la suya propia. Asimismo, se sabría también que la aceleración varía de manera inversa al cuadrado de la distancia al centro de la Tierra, tasándose su valor en superficie en 9,8 m/s^2. Además, la ley de Newton serviría para descifrar el significado de una de las incógnitas desconocidas en la Tercera Ley de Kepler, o para determinar también el origen de las mareas oceánicas – incluyéndose las mareas altas o de flujo, las mareas bajas o de reflujo, las mareas vivas y las mareas muertas – , atribuidas definitivamente a la atracción gravitatoria de la Luna. Hoy en día, en honor al ilustre científico inglés, se denomina newton (N) a la fuerza necesaria para proporcionar una aceleración de 1 m/s2 a un objeto de 1 kg de masa en el Sistema Internacional de Medidas.

Otro de los temas tratados en los Principia fueron las tres leyes de la dinámica o Leyes de Newton, las cuales describen el movimiento de los cuerpos así como sus efectos y causas. Según la Primera Ley de Newton, si sobre un cuerpo determinado no actúa fuerza alguna o la resultante de las fuerzas actuantes es nula, dicho cuerpo mantendrá el estado de reposo o de movimiento en el que se encuentre. Según la Segunda Ley, existe una relación de proporcionalidad directa entre la fuerza que se aplica a un cuerpo y la aceleración que esta le produce. La Tercera Ley de Newton indica que las fuerzas de interacción que ejercen dos cuerpos entre sí tienen la misma intensidad y dirección, aunque sentidos contrarios. Las Leyes de Newton supondrían la base a partir de la cual se constituiría la dinámica, es decir, aquella parte de la mecánica encargada de tratar las leyes del movimiento relacionadas con la acción de fuerzas; una rama de la física contrapuesta al estudio del movimiento desligado de sus causas, es decir, la cinemática, o al estudio del equilibrio de fuerzas, es decir, la estática. Dichas leyes servirían también de fundamento para el tratamiento de la mecánica a partir de magnitudes vectoriales como la fuerza o el momento, – mecánica newtoniana o vectorial – ; un tipo de mecánica aplicable al movimiento de cuerpos cuya velocidades no sean cercanas a la de la luz para el que se requiere el uso de sistemas de referencia inerciales. Por su parte, esta mecánica newtoniana o vectorial se hallaría en contraposicón a la denominada mecánica analítica, basada en magnitudes escalares como la energía cinética o el trabajo, y constituida por otro lado a partir de los preceptos del filósofo, matemático, jurista y político alemán Gottfried Wilhelm von Leibniz (1646 – 1716). Ambas formulaciones suponen así mismo los principales constituyentes de la mecánica clásica.

La revolución científica del Renacimiento daría pie asimismo al surgimiento de ramas científicas desconocidas hasta el momento; junto a sus estudios sobre los astros, la luz, la caída libre de los objetos y otros asuntos, Galileo Galilei dispondría de su versión personal respecto al problema del vacío al dar como cierta la teoría aristotélica del horror vacui (la naturaleza no permite el vacío). Con todo, tal afirmación contrastaría con sus propias observaciones respecto a la imposibilidad de las bombas de los pozos mineros de elevar agua mediante vacío a partir de una determinada altura. La respuesta satisfactoria a este fenómeno vendría dada por un discípulo suyo, el físico y matemático italiano Evangelista Torricelli (1608 – 1647), quién sustituiría el agua del pozo por un líquido más pesado – el mercurio – con el fin de hacer más prácticas sus observaciones. Gracias a ello, el discípulo Torricelli concluiría que los límites de ascenso del líquido en el pozo eran debidos a la presión atmosférica ejercida por el peso del aire, antes que al “resquebrajamiento del líquido causado por su propio peso” afirmado por Galileo. Mediante otras pruebas, Torricelli demostraría además la existencia de vacío en el espacio superior del líquido, valiéndose por otra parte de estos ejercicios para inventar el primer barómetro en 1643. En honor a sus logros, se denominaría torr a la unidad de medida consistente en la presión atmosférica ejercida en la base de una columna de un milímetro de mercurio bajo la acción de una gravedad estándar, (apróximadamente, un 1/760 de la presión atmosférica estándar). Posteriormente, esta unidad de medida desaparecería del catálogo oficial del Sistema Internacional de Unidades por su carácter obsoleto, siendo sin embargo su uso todavía frecuente en la realización de medidas de baja presión.

El mismo año de la muerte de Torricelli, el destacado filósofo y científico multidisciplinar Blaise Pascal (1623 – 1662), expondría sus teorías sobre la sustentación de líquidos por la presión atmosférica y la existencia del vacío en su tratado Experiences nouvelles touchant le vide. Los trabajos de Pascal resultarían determinantes para la aceptación de las evidencias mostradas por Evangelista Torricelli en la comunidad científica de su tiempo, destacando entre todos ellos su experimento con un barómetro en la cima del Puy-de-Dôme, en su localidad natal de Clermont-Ferrand – replicado posteriormente en el campanario de la iglesia de Saint-Jacques-de-la-Boucherie, en París -. Blaise Pascal demostraría la acción de la presión atmosférica al comprobar que las medidas del barómetro diferían con la altitud. Además, expondría su principio de Pascal, según el cual el incremento de la presión ejercida sobre un líquido contenido en un recipiente se transmite con el mismo valor a cada una de las partes del mismo. En honor a su trabajo sobre el vacío y la presión, se denomina pascal (Pa) a la unidad de presión consistente en la presión ejercida por una fuerza de un newton sobre una superficie de un metro cuadrado normal a la misma, en el Sistema Internacional de Unidades.

Inspirado en los descubrimientos de Evangelista Torricelli y Blaise Pascal, el jurista y físico alemán Otto von Guericke (1602 – 1686) diseñaría su experimento de 1654 de los hemisferios de Magdeburgo, según el cual dos semiesferas huecas de cobre de 50 centímetros de diámetro eran ajustadas hasta el punto de crease un vacío perfecto en su interior; durante la ejecución del mismo – realizado en la ciudad natal de von Guericke, Magdeburgo, en donde su autor ejercería además de alcalde -, dos tiros de ocho caballos cada uno se dispondrían a cada lado de los hemisferios con el fin de separarlos. Hecho el vacío, la acción de los dos tiros resultaría insuficiente para separar los hemisferios, – un gesto sumamente fácil cuando entre los mismo se introduce un mínimo de aire -. En otro experimento, el físico alemán demostraría cómo la fuerza de cincuenta hombres resultaba insuficiente para levantar un émbolo de 50 centímetros de diámetro contra el empuje de la presión atmosférica cuando bajo el mismo se había creado un vacío parcial. Asimismo, el físico, químico, inventor y teólogo irlandés Robert Boyle (1627 – 1691) se inspiraría por su parte en los trabajos de von Guericke para desarrollar, junto a Robert Hooke, la máquina neumática de 1659 – o bomba de aire según algunas fuentes; según otras, von Guericke sería el inventor de la primera bomba de vacío -. Con este diseño, Boyle realizaría una serie de experimentos acerca de las propiedades del aire; pudo comprobar por ejemplo cómo en el vacío no se propaga el sonido, o una pluma y un trozo de plomo caen a la misma velocidad. Inspiraría además la formulación de su ley de Boyle, – también conocida como ley de Boyle-Mariotte, por la contribución que en ella tuvo el físico y abad francés Edme Mariotte (1620 – 1684) – según la cual, a temperatura constante, el volumen de un gas es proporcional al inverso de la presión, reforzando con ello su aseveración de que el aire era un compuesto de partículas individuales vinculadas en el vacío. En 1660, Boyle publicaría una relación sobre sus trabajos realizados con este instrumento titulado New Experiments PsychoMechanical touching the spring of air and its effects, conocido popularmente como `La elasticidad del aire´. Por su parte, el físico e inventor francés Denis Papin (1647 – 1712) diseñaría en 1690 un dispositivo capaz de elevar 30 kg de peso con un émbolo de unos 6 cm de diámetro al crear un vacío parcial por disipación de vapor, tras ser levantado por la acción de este. Ocho años después, el inventor inglés Thomas Savery (1650 – 1715), se valdría de estos descubrimientos para patentar su bomba de vapor para minas; un dispositivo compuesto por una caldera emisora de vapor y un tanque, en cuyo interior, – tras haberse creado el vacío por condensación de vapor -, el agua es elevada a la superficie por la acción de su empuje. En esta misma dinámica, el inventor inglés Thomas Newcomen (1663 – 1729) – asesorado por Robert Hooke -, realizaría una mejora del diseño de Savery al introducir un cilindro cuyo vacío proporcionaba el empuje necesario para hacer bombear el agua. Mientras, el ingeniero y matemático escocés James Watt (1736 – 1819), mejoraría a su vez la Máquina de Newcomen al incluir un condensador independiente que mantenía cada parte de la máquina a temperatura constante, dando lugar así a la máquina de vapor.

Así, al tiempo que los diseños basados en el uso del vacío y la presión del aire mejoraban, avanzaba también el estudio de la temperatura y la cinética de los gases; en 1742, el físico y astrónomo sueco Anders Celsius (1701 – 1744) crearía la escala celsius de temperaturas, una escala termométrica dividida en cien grados centrígrados iguales que abarca desde la temperatura de fusión del hielo (0º C) a la de ebullición del agua (100º C), a presión normal. Para ello se inspiraría en escalas precedentes como la Fahrenheit – una escala también centígrada, en la que el 0 °C equivale a 32 °F y 100 °C a 212 °F -, creada a su vez por el físico alemán Daniel Gabriel Fahrenheit (1686 – 1736) en 1724. La Ley de Charles y Gay-Lussac, atribuida originalmente al inventor, físico y matemático francés Jacques Charles (1746 – 1823), es publicada por su compatriota, el físico y químico Louis Joseph Gay-Lussac (1778 – 1850) en 1802; de acuerdo a esta famosa ley, cuando la presión de un gas se mantiene constante, su volumen varía en razón directa de los cambios de su temperatura absoluta. En 1811, el físico y químico italiano Amedeo Avogadro (1776 – 1856) enunciaría su ley de Avogadro, según la cual, volúmenes iguales de distintas sustancias gaseosas, medidos en las mismas condiciones de presión y temperatura, contienen el mismo número de partículas. Precisamente en honor a este científico se denomina hoy constante de Avogadro al número de entidades elementales (átomos o moleculas) que hay en un mol (cantidad de sustancia que contiene tantas entidades elementales del tipo considerado como átomos hay en 12 gramos de carbono-12).

De esta forma, el conjunto de precedentes iniciados de alguna manera con la Revolución Científica del Renacimiento supondría la base fundamental para toda una nueva disciplina científica; la termodinámica. Su base teórica, sin embargo, quedaría establecida años después con el trabajo de un físico – y relativamente desconocido – joven francés pionero en la materia, Nicolas Léonard Sadi Carnot (1796 – 1832); la publicación de 1824 del joven Sadi Carnot titulada Reflexiones sobre la potencia motriz del fuego y sobre las máquinas adecuadas para desarrollar esta potencia es considerado hoy en día el texto fundacional de la termodinámica, describiéndose en su interior dos de los principales preceptos de la disciplina, la primera y la segunda ley de la termodinámica. La primera ley de la termodinámica establece que, al suministrar una determinada cantidad de energía térmica a un sistema, esta cantidad de energía será igual a la diferencia del incremento de la energía interna del sistema menos el trabajo realizado por el sistema sobre sus alrededores; dicha ley deriva asimismo de otro principio considerado fundamental dentro de la termodinámica, el principio de la conservación de la energía, – atribuido según distintas fuentes al físico inglés James Prescott Joule (1818 – 1889), al físico y médico alemán Julius von Mayer (1814 – 1878), y al también físico y médico alemán Hermann von Helmholtz (1821 – 1894) – cuyo enunciado establece que la cantidad total de energía en un sistema aislado permanece invariable con el tiempo, aunque dicha energía pueda transformarse en otro tipo de energía, – dicho de otra manera, que la energía ni se crea ni se destruye, tan solo se transforma -. La segunda ley de la termodinámica determina que cuando una parte de un sistema cerrado interacciona con otra parte, la energía tiende a dividirse por igual, hasta que el sistema alcanza un equilibrio térmico. El mismo año de la publicación de su texto fundamental, el físico Sadi Carnot estudió la eficiencia de las diferentes máquinas térmicas que trabajan transfiriendo calor de una fuente de calor a otra, concluyendo que las más eficientes son las que funcionan de manera reversible. Para ello diseñaría una máquina térmica totalmente reversible que funciona entre dos fuentes de calor de temperaturas fijas. Dicha máquina es conocida hoy en día como la máquina de Carnot, y su funcionamiento como el ciclo de Carnot. Los trabajos de este científico francés serían relativamente desconocidos durante su época, debiéndose su posterior reconocimiento al trabajo divulgativo del físico y matemático alemán Rudolf Clausius (1822 – 1888), y del también físico y matemático inglés William Thomson (1824 – 1907), más conocido como Lord Kelvin. Finalmente, tras la muerte de Carnot por cólera en 1832, la ciencia termodinámica continuaría su proceso constituyente; en 1834, el físico e ingeniero francés Émile Clapeyron (1799 – 1864) enunciaría la ley de los gases ideales, según la cual, en condiciones de baja presión y alta temperatura, el producto del volumen y la presión de un gas es igual al producto de la temperatura, la cantidad de moles de dicho gas y la constante universal de los gases ideales. En 1842, Julius von Mayer obtiene por primera vez el valor de la caloría (cantidad de energía calorífica necesaria para elevar un grado centígrado la temperatura de un gramo de agua pura); von Mayer descubriría además junto con James Prescott Joule aunque de forma independiente la transformación del trabajo mecánico en calor y viceversa. Lord Kelvin crearía en 1848 su escala de temperatura Kelvin – basado en el grado del mismo nombre -, en la que el grado cero coincide con el cero absoluto de la temperatura (−273,15 °C). Este científico descubriría además en 1851 el Efecto Thomson, una propiedad termoeléctrica por la que cualquier material – excepto el plomo – sometido a un gradiente térmico y recorrido por una intensidad intercambia calor con el medio exterior, al tiempo que una corriente eléctrica es generada por el material sometido a un gradiente térmico y recorrido por un flujo de calor. Entre los años 1850 y 1865, Rudolf Clausius formula el concepto de entropía, es decir, la parte de energía de un sistema que no puede utilizarse para hacer trabajo, o también, la medida del desorden de un sistema; este concepto resultaría fundamental para la comprensión de la segunda ley de la termodinámica, según la cual la cantidad de entropía de cualquier sistema aislado termodinámicamente tiende a incrementarse con el tiempo. En 1850, Clausius publicaría además su obra más destacada, Über die der Kraft bewegende Wärme, sobre la teoría mecánica del calor, al tiempo que realizaría otra de las grandes contribuciones a la termodinámica al deducir la Relación Clausius-Clapeyron, una manera de caracterizar la fase de transición entre dos estados de la materia tales como el líquido y el sólido. En 1859, el físico prusiano Gustav Kirchhoff (1824 – 1887) propone su ley de la radiación térmica, un teorema de carácter general que equipara la emisión y absorción en objetos calientes; según esta ley, si un cuerpo o superficie está en equilibrio termodinámico con su entorno, su emisividad es igual a su absorbencia. En 1867, el físico escocés James Clerk Maxwell (1831 – 1879) crea su experimento mental del Demonio de Maxwell, una criatura imaginaria capaz de actuar a nivel molecular seleccionando moléculas calientes y moléculas frías separándolas, desafiando así la segunda ley de la termodinámica.

Esta desarrollo progresivo de la ciencia termodinámica continuaría en las décadas siguientes; en 1876, el físico y matemático estadounidense Willard Gibbs (1839 – 1903) publica su obra fundamental `En el equilibrio de sustancias heterogéneas´. También pertenece a este autor la obra `Métodos gráficos en termodinámica de fluídos´. A Willard Gibbs se debe además el desarrollo de conceptos como la regla de fases – una descripción del número de grados de libertad en un sistema cerrado en equilibrio -, o energía libre – una función de estado extensiva con unidades de energía, que da la condición de equilibrio y de espontaneidad para una reacción química -, o de disciplinas como la mecánica estadística o la termodinámica química. En 1882, Helmholtz publica sus `Fundamentos de termodinámica´; la afinidad química – tendencia de un átomo o compuesto para combinarse por una reacción química con átomos o compuestos de composición distinta – es determinada por la medida de la energía libre del proceso de reacción. En 1896 se publica la obra fundamental del físico austriaco Ludwig Boltzmann (1844 – 1906) `Lecciones sobre la Teoría de los Gases´. Se establece además la ley Stefan-Boltzmann – denominada así en honor al físico y poeta esloveno-austriaco Josef Stefan (1835 – 1893), y al propio Boltzmann -, según la cual un cuerpo negro emite radiación térmica con una potencia emisiva proporcional a la cuarta potencia de su temperatura; la constante de Boltzmann, – es decir, la constante física que relaciona temperatura absoluta y energía -, la estadística de Maxwell-Boltzmann, – función estadística desarrollada para modelizar el comportamiento de sistemas físicos regidos por la mecánica clásica – y la distribución de Boltzmann – una distribución de probabilidad de las velocidades de un gas asociada a la estadística de Maxwell-Boltzmann -, son desarrolladas también por esta época. En 1900, el físico alemán Max Planck (1858 – 1947) enuncia su ley de Planck, una descripción de la radiación espectral en todas las longitudes de onda de un cuerpo negro en temperatura T. Ya en el siglo XX, los fundamentos de la termodinámica se consolidan con los enunciados de la tercera ley de la termodinámica – no se puede alcanzar el cero absoluto en un número finito de etapas -, y el principio cero de la termodinámica – existe una determinada propiedad, denominada temperatura empírica θ, que es común para a todos los estados de equilibrio que se encuentren en equilibrio mutuo con uno dado -.

Ver también:

Applets Java de Física
Concepciones antiguas del Universo
La bóveda celeste y el concepto de horizonte – Astrogea.org
Texto de la abjuración de Galileo
Eldia.es – Evangelista Torricelli: de la bomba de agua a la invención del barómetro
Youtube – Esfera de Magdeburgo
Pierre Simon Laplace – Wikipedia
Joseph-Louis de Lagrange – Wikipedia

Entradas relacionadas:

Apuntes de Física: Teorías y leyes (1ª parte)
Apuntes de Física: Teorías y leyes (2ª parte)
Apuntes de Física: Teorías y leyes (3ª parte)
Apuntes de Física: Teorías y leyes (4ª parte)
Apuntes de Física: Teorías y leyes (5ª parte)
Apuntes de Física: Teorías y leyes (6ª parte)
Apuntes de Física: Teorías y leyes (7ª parte)

Otros apuntes en Diario de un explorador:

Apuntes de Física: Los orígenes del Universo (1ª parte)

Anuncios

Apuntes de Física: Teorías y leyes (7ª parte)

Desde comienzos del siglo XX, se conoce como Teoría de la Relatividad al cuerpo teórico elaborado por el científico alemán, nacionalizado estadounidense, Albert Einstein (1879-1955), y formado en su conjunto por la Teoría de la Relatividad Especial y la Teoría de la Relatividad General. La primera de ellas tiene su origen en el estudio de las incoherencias surgidas en la aplicación de la electrodinámica de Maxwell a los principios de relatividad (estudio sobre la interpretación del movimiento y leyes físicas para observadores en movimiento relativo uniforme) de Galileo Galilei (1564-1642), así como en los resultados negativos correspondientes a la búsqueda experimental de un sistema de referencia absoluto para el movimiento de la luz de los estadounidenses Albert A. Michelson (1852-1931) y Edward W. Morley (1838-1923), incongruentes con dicha relatividad. La segunda surge como una forma de generalizar los principios sobre sistemas de referencia inerciales expuestos en la Teoría de la Relatividad Especial de Einstein para un observador arbitrario; otra interpretación es que se trata de una aplicación de la Relatividad Especial para cuerpos sujetos a un campo gravitatorio.

Ya en tiempos de Galileo había sido planteado el problema de cómo serían interpretados los movimientos físicos y las leyes que los describen desde el punto de vista de dos observadores con un movimiento relativo uniforme, es decir, en movimiento relativo uno respecto del otro a una velocidad constante. Tanto para este como para el célebre físico inglés Isaac Newton (1643-1727), las leyes de la física eran las mismas para cualquier sistema de referencia inercial, entendiendo por tales tanto los referentes al reposo relativo como al movimiento rectilíneo uniforme. Esta concepción, conocida en Física como principio de relatividad galileano, habría de ser mantenida aún durante la formulación de la Teoría de la Relatividad de Einstein. Asimismo, para ambos científicos el valor tiempo y distancia entre dos puntos resultaba idéntico en todos los sistemas de referencia, una idea que sí se vería posteriormente desmentida durante la redacción de la nueva Teoría de la Relatividad. Según la relatividad de Galileo, la velocidad en los sistemas de referencia inerciales es un valor variable, mientras que la aceleración es invariable. Además, tal y como ya dijimos, las leyes básicas de la naturaleza son las mismas para los observadores de un sistema de referencia inercial; debido a esto, resultaba imposible saber si un sistema de referencia se correspondía con el reposo absoluto o a un movimiento rectilíneo uniforme.

Esta teoría de la relatividad de Galileo habría de ser tenida por cierta hasta mediados del siglo XIX; sin embargo, con la aparición de la electrodinámica descrita por Maxwell, surgirían las primeras contradicciones relacionadas con la velocidad de la luz y su movimiento. Según el científico inglés, la velocidad de la luz en el vacío se corresponde con el valor c, que es igual a 299.792.458 m/s. Sin embargo, de acuerdo con el principio de relatividad de Galileo, el valor de la velocidad de la luz resultaría variable dentro de un sistema de referencia inercial. De ser así, el valor de c solo sería correcto para un determinado sistema de referencia privilegiado; de lo contrario, la teoría de la relatividad de Galileo se revelaría como errónea. En esta época, la idea común era que c se correspondía con la velocidad de la luz para un sistema de referencia privilegiado en reposo respecto a un medio lumínico denominado éter. Con el fin de encontrar dicho sistema de referencia privilegiado y resolver así el problema de la contradicción entre la relatividad galileana y la electrodinámica de Maxwell, Albert A. Michelson diseñaría en 1881 su experimento del interferómetro, con el que pretendía conocer la velocidad de traslación de la Tierra respecto al éter. El fundamento del dispositivo de Michelson consistía en dividir un haz emitido por una fuente luminosa en dos proyecciones distintas para ser desviadas luego por caminos perpendiculares al atravesar un espejo semiplateado. Estos haces serían posteriormente reflejados por dos espejos y enfocados hacia un anteojo para observar los correspondientes patrones de interferencia provocados por los haces de luz. La intención de Michelson era hacer coincidir la dirección de uno de los haces con la del movimiento orbital de la Tierra para obtener así ciertas medidas de desplazamientos en el patrón de interferencia con las que deducir la velocidad de la Tierra respecto al éter lumínico. Finalmente, los primeros resultados de Michelson con el interferómetro serían negativos, es decir, no obtendría el desplazamiento de franjas en el patrón de interferencias que había esperado; para científicos como el neerlandés Hendrik A. Lorentz (1853-1928), dichos resultados eran debidos a posibles defectos de procedimiento, así como a ciertos errores matemáticos en el cálculo del haz perpendicular. Esto llevaría a Michelson a repetir nuevamente el experimento seis años después en compañía de un colaborador, el profesor de química Edward W. Morley. El segundo intento, conocido en la actualidad como experimento de Michelson y Morley, se realizaría a partir de un dispositivo óptico montado sobre un gran bloque de piedra suspendida en mercurio para reducir al máximo las vibraciones; sin embargo, y a pesar de las medidas adoptadas para evitar cualquier tipo de imprecisión, los resultados revelados en esta segunda ocasión serían una vez más negativos.

De acuerdo con las conclusiones obtenidas por Michelson y Morley en su experimento, no parecía existir un sistema de referencia privilegiado respecto al éter lumínico; todo parecía indicar que ni siquiera el propio éter debía de existir. Tal y como pudo observarse en aquella ocasión, la velocidad de la luz libre de cualquier resistencia era la misma para todo sistema de referencia inercial. Sin embargo, un planteamiento como este, en el que la relatividad de Galileo se veía negada, resultaba demasiado revolucionario para los científicos de aquella época. Esta razón llevaría a Michelson y a Morley a concluir que cualquier movimiento relativo entre la Tierra y el éter debía de ser imperceptible o inexistente, y que por tanto, ambos se encontraban respecto de sí en un reposo relativo. En cualquier caso, dos principios parecían quedar claros tras el experimento; la relatividad de Galileo no parecía cumplirse en el caso de la luz, y la velocidad de la luz resultaba constante en todo caso, independientemente del foco emisor. Para expertos como Hendrik Lorentz o el irlandés George F. Fitzgerald (1851-1901), tal situación podía ser explicada a partir de su hipótesis de la contracción de la longitud de los cuerpos en movimientos a través del éter (conocida también como contracción de Lorentz-Fitzgerald), propuesta por ambos de forma independiente tras conocer los resultados del experimento. Posteriormente, Albert Einstein abordaría esta misma hipótesis así como el problema del incumplimiento de la relatividad galileana en general a partir de un enfoque totalmente revolucionario; para el científico alemán, el hecho de que ninguno de los experimentos realizados hasta el momento hubiera dado con el ansiado sistema de referencia privilegiado indicaba con claridad que tal sistema sencillamente no existía. Por tanto, debía considerarse como sistema de referencia inercial únicamente a aquel que se correspondiera con un movimiento con velocidad relativa constante. De acuerdo con esto, Einstein establecería dos postulados principales en base a los cuales estructuraría toda su Teoría de la Relatividad Especial; en primer lugar, se consideraría a todas las leyes físicas como iguales para cualquier sistema de referencia inercial. En segundo lugar, habría de tener en cuenta a la velocidad de la luz en el vacío como idéntica para todos los sistemas de referencia inerciales e independiente del movimiento de la fuente emisora y del observador. Ambos principios, en apariencia intrascendentes, supondrían con el tiempo la reformulación teórica y conceptual de algunas de las nociones más básicas y consolidadas para la ciencia física, así como para la cultura moderna en general, incluyéndose entre ellas fundamentos tales como la masa y la energía, o más relevantes aún, el tiempo y el espacio.

Una de las principales conclusiones derivadas de la formulación de Einstein para una nueva Teoría de la Relatividad era que el tiempo no transcurría por igual en todos los sistemas de referencia como un valor absoluto. Asimismo, el espacio resultaba ser también un valor variable, es decir, que podía resultar disímil para sistemas inerciales diferentes y que, por tanto, dependía del sistema de referencia. Concretamente, los postulados de Einstein daban a entender que el valor tiempo era un factor relativo, es decir, que el intervalo acaecido entre dos sucesos dependía en todo caso del sistema de referencia; en el caso de dos observadores estacionarios resultaba igual si los sucesos ocurrían en el mismo punto, mientras que para dos observadores en movimiento relativo uno respecto al otro se revelaba como distinto. Las incoherencias relativas a la aplicación de la electrodinámica de Maxwell respecto a la relatividad de Galileo serían debidas por tanto a que el valor tiempo era considerado igual en todo caso. Gracias a la Relatividad de Einstein hoy sabemos que existe una relatividad del tiempo en este aspecto, consecuencia además de la existencia de una velocidad límite para el desplazamiento de la radiación electromagnética. Dicha relatividad se encuentra perfectamente ejemplificada en el fenómeno conocido como dilatación del tiempo, por el cual un observador estacionario comprueba como el reloj de otro se ralentiza al encontrarse en movimiento. Por su parte, la relatividad espacial supone la contracción de la longitud de un objeto en movimiento al ser medido desde un sistema de referencia con respecto al cual el objeto se mueve, un fenómeno conocido en física como contracción de la longitud y cuya formulación adelantarían ya Lorentz y Fitzgerald con su hipótesis de la contracción (hecho por el cual se denomina a la ecuación que lo representa fórmula de la contracción de Lorentz-Fitzgerald). Ambas manifestaciones confluyen en la que se supone es la paradoja más célebre de entre las surgidas tras la formulación de Einstein, es decir, la paradoja de los gemelos, en la cual dos hermanos nacidos en el mismo día, terminan teniendo edades distintas al ser separados por un viaje interestalar a velocidades cercanas a la de la luz. La relación entre las medidas halladas por dos observadores diferentes en un sistema de referencia inercial serían obtenidas tras la Teoría de la Relatividad a partir de un nuevo sistema matemático sustitutivo del de Galileo, denominado transformación de Lorentz (en honor a su autor, el científico neerlandés); la principal diferencia de este modelo respecto al anterior residiría en el diferente valor del factor tiempo en cada caso. Por otra parte, la veracidad de estas transformaciones quedaría comprobada si, al aplicárseles velocidades muchísimo menores que las de la luz, condujesen a transformaciones galileanas. De las transformaciones de Lorentz se deduciría posteriormente la famosa ecuación E = mc^2, (energía es igual a masa por c al cuadrado), según la cual cualquier variación en la energía se traduce en una variación de masa y viceversa, de forma que masa y energía son al final dos manifestaciones de un mismo fenómeno físico. La Teoría de la Relatividad Especial sería posteriormente demostrada a partir de ciertas evidencias científicas, como la detección en la superficie terrestre de muones procedentes de la radiación cósmica (un hecho solo posible gracias a los fenómenos de contracción de la longitud y dilatación del tiempo, dada la corta esperanza de vida de estas partículas), o el desfase de relojes atómicos durante el vuelo de dos jets alrededor del mundo en sentidos contrarios.

De esta forma, la Teoría de la Relatividad Especial supuso el fin de las incognitas relativas a la electrodinámica de Maxwell y el éter lumínico en su relación con la relatividad de Galileo y la mecánica clásica en general. Sin embargo, su promulgación y entrada en el ámbito científico significaría también la apertura de nuevas cuestiones para la física; muchas teorías científicas consolidadas por aquel entonces, como la ley de la Gravitación Universal de Newton, presentarían en ese momento importantes incoherencias respecto a la Relatividad Especial, lo cual empujaría al propio Einstein a elaborar una nueva Teoría de la Relatividad General que integrase en sí misma el fenómeno de la gravedad. Esta Relatividad General, formulada por el célebre científico entre los años 1907 y 1915, traería consigo toda una serie de predicciones certeras tales como la lente gravitacional (una deformación o amplificación de la imagen causada por la interposición de un cuerpo masivo respecto del objeto y su observador), los fenómenos de curvatura de la luz y disminución del tiempo por efecto de la gravedad, o indirectamente comprobadas como las ondas gravitacionales (ondulaciones en el espacio-tiempo producidas por un cuerpo masivo acelerado), así como el esclarecimiento de ciertos fenómenos hasta entonces inexplicados por la ciencia como las anomalías en la órbita de Mercurio. Por otra parte, supondría también la introducción a ciertas cuestiones no planteadas hasta entonces, como la conciliación de la nueva Relatividad con la física cuántica en una única teoría de la gravedad cuántica. La teoría de la Relatividad General sería también la base para el modelo estandar del Big Bang en cosmología, además de una herramienta fundamental a partir de entonces en astrofísica. Su formulación daría comienzo dos años después de la publicación de la Relatividad Especial a partir de la proposición del principio de equivalencia por parte de Einstein; según este, no existe una diferencia sustancial entre un observador sujeto a un campo gravitatorio determinado (por ejemplo, una persona en La Tierra) y otro sometido a una aceleración específica (por ejemplo, un piloto espacial cuya nave se encuentra en aceleración) en lo relativo a su aceleración, lo cual puede ser interpretado como una correspondencia respecto a un sistema de referencia no inercial para ambos observadores. De igual manera, tampoco existe diferencia entre un observador ingravido desligado de cualquier campo gravitatorio y un observador ingravido sujeto a un campo gravitatorio y en órbita (por ejemplo, los astronautas habitantes de la ISS) o en caída libre hacia el suelo en el interior de un habitáculo (por ejemplo, una persona atrapada en un ascensor precipitándose al vacío), puesto que en todo caso se corresponden con un sistema de referencia inercial al no encontrarse acelerados. Dicho principio explicaría el corrimiento al rojo sufrido por la luz a causa de la gravedad, o la dilatación del tiempo, entre otras cuestiones. Sin embargo, no explicaría el hecho de que dos observadores pudieran ser atraídos desde polos opuestos por un mismo objeto masivo, un fenómeno propio de los sistemas de referencia no inerciales para los que es necesaria la acción de una fuerza considerada ficticia. Tal fenómeno guarda relación con las diferencias de fuerzas responsables de las mareas oceánicas, hecho por el cual es conocido también como efecto de marea. Para explicar tal efecto y demostrar así la relación habida entre las fuerzas ficticias y los sistemas de referencia inerciales referentes a caídas libres, Einstein recurriría a una modalidad de las matemáticas denominada geometría de superficies, la cual implicaba la transmisibilidad de los casos de transición de un marco de referencia inercial (en el que las partículas se deslizan libremente en trayectorias rectas a velocidad constante) a un marco de referencia rotacional (en el cual se deben introducir términos extras correspondientes a las fuerzas ficticias con el fin de explicar el movimiento de las partículas), hacia un sistema de coordenadas cartesianas y curvilíneas repectivamente, o la relación de la fuerza de mareas con la curvatura de superficies. En base a ello, el autor de la Relatividad Especial trabajaría en la creación de una teoría geométrica aplicable a la gravedad.

Tradicionalmente, los objetos elementales de la geometría (puntos, líneas, planos, polígonos, etc) habían sido definidos en un espacio tridimensional o en una superficie de dos dimensiones. Sin embargo, en 1907 el matemático alemán Hermann Minkowski (1864-1909) introdujo una formulación geométrica de la teoría especial de la relatividad de Einstein que incluía no sólo el espacio sino también el tiempo. La entidad básica de esta nueva geometría era el espacio-tiempo de cuatro dimensiones. Asimismo, la generalización de la geometría de un plano respecto de la geometría de una superficie curva general había sido descrita anteriormente por el matemático, astrónomo y físico alemán Carl Friedrich Gauss (1777-1855) y extendida a su vez a espacios de más dimensiones a partir de los formalismos matemáticos introducidos por el también alemán y matemático Bernhard Riemann (1826-1866). A partir de estos precedentes, Einstein formularía una descripción geométrica de la realidad en la cual el espacio-tiempo de Minkowski sería generalizado hacia un espacio-tiempo curvo y distorsionado del tipo de Riemann, del mismo modo en que las superficies curvas podían generalizarse hacia superficies planas ordinarias. Poco después, publicaría además un método de descripción matemática para la curvatura del espacio-tiempo, conocido hoy como ecuaciones de Einstein. La comprensión de esta geometría gravitacional parte del empleo de las sondas o partículas de prueba (partículas influenciadas por la gravedad sin efecto gravitacional propio) como ejemplo; en ausencia de gravedad y otras fuerzas externas, una partícula de prueba se mueve a lo largo de una línea recta a una velocidad constante. En presencia de gravedad, sin embargo, el espacio es no-euclidiano o curvo, de forma similar en tres dimensiones a la superficie de una esfera. En este espacio las partículas de prueba se mueven a lo largo de líneas llamadas geodésicas (en su significado original, una geodésica es el camino más corto entre dos puntos en la superficie de la Tierra), que son lo más rectas posible. En este sentido, las propiedades de las geodésicas difieren de forma clara de las líneas rectas; por ejemplo, en un plano, las líneas rectas que comienzan en direcciones paralelas mantienen entre sí una distancia constante. En el caso de las geodésicas terrestres sin embargo, las líneas de longitud son paralelas en el ecuador, pero se entrecruzan en el polo. De esta forma, en la relatividad especial, las paralelas geodésicas siguen siendo paralelas, mientras que en un campo gravitacional con efectos de marea, no siempre es así; por ejemplo, si dos cuerpos, inicialmente en reposo caen en el campo gravitacional de la Tierra, se acercaran el uno hacia el otro mientras caen a su vez hacia el centro de de gravedad terrestre.

Posteriormente, la Teoría de la Relatividad General de Einstein sería demostrada a partir de varias pruebas clásicas, como la explicación del avance en el perihelio orbital de Mercurio, la desviación gravitacional de la luz, confirmada en primera instancia por el astrónomo británico Sir Arthur Eddington (1882-1944) a partir de sus estudios sobre eclipses solares de 1919, o el desplazamiento gravitacional de la luz al rojo, confirmada asimismo por el experimento de Pound-Rebka en 1959.

Ver también:
Masa y energía en la relatividad especial – Wikipedia
1915. El Universo relativista de Einstein – Elmundo.es
Caída libre de cuerpos – El rincón del vago

Entradas relacionadas:

Apuntes de Física: Teorías y leyes (1ª parte)
Apuntes de Física: Teorías y leyes (2ª parte)
Apuntes de Física: Teorías y leyes (3ª parte)
Apuntes de Física: Teorías y leyes (4ª parte)
Apuntes de Física: Teorías y leyes (5ª parte)
Apuntes de Física: Teorías y leyes (6ª parte)
Apuntes de Física: Teorías y leyes (8ª parte)

Otros apuntes en Diario de un explorador:

Apuntes de Física: Los orígenes del Universo (1ª parte)

Apuntes de Física: Teorías y leyes (6ª parte)

A partir del desarrollo teórico y el conocimiento experimental de la radiación electromagnética durante la segunda mitad del siglo XIX, surgirían ante la ciencia múltiples problemas y descubrimientos relacionados con el naciente campo de la electrodinámica. La mayoría de ellos obtuvieron su respuesta a la luz de las nuevas teorías, pero algunos de ellos, unos pocos, resultaron inexplicables para el paradigma teórico de la época; en concreto, estos casos serían el problema sobre la radiación del cuerpo negro, la cuestión del efecto fotoeléctrico, y el modelo atómico de Rutherford. Su resolución, junto con el desarrollo de las investigaciones acerca de la composición última de la materia, supondrían finalmente el inicio de una de las ramas físicas más importantes dentro del conjunto de innovaciones involucradas en la revolución científica del siglo XX; la física cuántica.

Ya en la 3ª parte de estos Apuntes de Física sobre Teorías y leyes, vimos de manera resumida en que consisten el problema de la radiación del cuerpo negro y la cuestión del efecto fotoeléctrico; para evitar la falla teórica conocida como catástrofe ultravioleta durante la interpretación del problema de la radiación del cuerpo negro mediante postulados de electrodinámica clásica, Max Planck (1858-1947) ideó en 1900 el concepto de cuantos de luz, y la ley sobre intensidad de radiación de un cuerpo negro (más conocida como Ley de Planck) de 1901, mientras que el famoso científico Albert Einstein (1879-1955) se valdría de estos mismos conceptos durante la elaboración de su artículo “Un punto de vista heurístico sobre la producción y transformación de la luz” de 1905 para la explicación del efecto fotoeléctrico. Ambas soluciones supondrían la adopción del cuanto de luz (posteriormente denominado fotón) como una realidad con carta de naturaleza, y en consecuencia, la reconsideración de todo el modelo teórico de la electrodinámica desde sus mismos fundamentos. Años más tarde, el físico danés Niels Bohr (1886-1962) daría un paso más en este sentido al proponer, en 1913, un nuevo modelo atómico sustitutivo del de Rutherford para el que el concepto de cuanto de luz resultaba fundamental; de acuerdo con las investigaciones del británico Ernest Rutherford (1871-1937) sobre la dispersión de rayos alfa en contacto con láminas de oro (Ver la entrada anterior de los apuntes), los electrones del átomo no se hallarían inmersos en una única masa de carga positiva, tal y como se establecía en un principio para el denominado modelo de Thomson, sino que, en realidad, dichas partículas se encontrarían flotando alrededor del núcleo en un movimiento presumiblimente orbital. Esta afirmación, junto con algunos otros postulados de carácter fundamental, supondrían la base teórica para el nuevo modelo atómico de Rutherford. Sin embargo, ciertas incoherencias, surgidas en parte de la intepretación del movimiento orbital de los electrones desde la electrodinámica clásica, acabarían convirtiendo en poco tiempo al modelo de Rutherford en un sistema obsoleto. De acuerdo con la física del momento, una partícula cargada y acelerada, como es el caso del electrón, emite radiación electromagnética a expensas de su energía, lo que significa que al agotarse esta, la partícula pierde su capacidad de movimiento. En el caso del electrón, dicha pérdida de movimiento tendría que traducirse en una caída hacia el núcleo y la consecuente desestabilización del átomo, algo que, por supuesto, no ocurre. Para explicar esto, Niels Bohr recurriría al cuanto de Planck, así como a un fenómeno inexplicado en física por aquel entonces, las líneas espectrales, para exponer en 1913 un tercer modelo atómico, el modelo de Bohr; según este, existen en el átomo órbitas permitidas en las que es posible que el electrón se mueva con celeridad constante sin emitir ningún tipo de radiación, lo que constituye para el átomo un estado estacionario (es decir, sus características no varían). Dichas órbitas permitidas son las únicas en las que el electrón puede moverse; su momento angular (cantidad de movimiento para un cuerpo de trayectoria curva) podrá medirse a partir de valores discretos, los cuales a partir de su relación con la constante de Planck permitirán obtener un número para la cuantización de los posibles valores del momento angular denominado número cuántico principal. En base a esto, el electrón orbital podrá pasar de una trayectoria permitida a otra absorbiendo (si se desplaza a una órbita superior) o emitiendo (si lo hace a una órbita inferior) energía cuantizada en forma de paquetes de luz o fotones. La actividad energética del electrón sería por otro lado la respuesta a los enigmáticos espectros de luz discontinuos, es decir, espectros electromagnéticos o franjas lineales del espectro para los que determinadas lineas o espectros de fondo (dependientes en todo caso del elemento o elementos químicos involucrados) resultaban ausentes, y que habían sido observados ya en las emisiones formadas por gases calientes o sometidos a una descarga eléctrica en tubos de baja presión; unas y otras mostraban ser el reflejo de la capacidad de absorción y emisión de energía por parte del electrón durante el cambio de órbita, representadas en el campo visual mediante espectros discontinuos (líneas de emisión y líneas de absorción). Los resultados obtenidos por Bohr se ajustarían así a las ecuaciones elaboradas por los científicos para la descripción de ciertas regularidades observadas en las líneas espectrales, como la descrita por el sueco Johannes Rydberg (1854-1919) en 1888 (fórmula de Rydberg), si bien su eficacia se limitaría únicamente al átomo de hidrógeno.

De esta forma, el cuanto de luz ideado por Planck provocaría una vez más el resurgir de las antiguas controversias acerca de la naturaleza ondulatoria o corpuscular de la luz en un momento en el que estas se creían superadas. Su resolución vendría dada en esta ocasión de la mano del científico francés Louis de Broglie (1892-1987), quien en su tesis doctoral de 1924 titulada “Investigaciones sobre la teoría cuántica” llegaría a la conclusión de que el mismo electrón poseía propiedades ondulatorias. La hipótesis de De Broglie establecía así una naturaleza dual de onda y corpúsculo tanto para la luz como para la materia (dualidad onda-corpúsculo), siendo avalada poco después de su publicación por la demostración empírica de la difracción de electrones. Estos precedentes harían surgir la necesidad de una nueva mecánica capaz de predecir y explicar el comportamiento de la realidad física a nivel cuántico o atómico, teniendo en cuenta además su naturaleza dual. Ese sería el objetivo de la física cuántica.

 

En esta misma época, algunos jovenes pioneros comenzaban a elaborar las primeras bases teóricas para la naciente mecánica cuántica. El primero de ellos, Werner Heisenberg (1901-1976), físico alemán experto en matemáticas, construiría su diseño a partir de la teoría de matrices (sistema matemático basado en tablas de números, utilizado por lo general para la descripción de ecuaciones lineales, seguimiento de coeficientes en una aplicación lineal, o registro de datos), contando para ello con la colaboración de los científicos Wolfgang E. Pauli (1900-1958), de Austria, y Max Born (1882-1970), de Alemania. La mecánica matricial de Heisenberg obtendría un importante éxito desde su publicación en 1925, si bien su concepción acerca del mundo cuántico terminaría por ser considerada obtusa e imprecisa entre la misma comunidad científica; para muchos, los intervalos de datos obtenidos a partir del sistema de matrices ideado por el premio Nobel resultaban insuficientes a la hora de reflejar los hechos, mientras que para otros representaban fielmente el carácter ambiguo de la propia realidad cuántica. El mejor ejemplo sobre esta cuestión lo presentaría el mismo Heisenberg al enunciar en 1927 su principio de incertidumbre, por el cual se establece la imposibilidad de determinación para ciertos pares de variables físicos relacionados con un objeto a nivel cuántico. Dicho principio sería también ilustrado a partir del conocido como experimento mental del microscopio de rayos gamma (un microscopio de rayos gamma no puede detectar electrones sin modificar su estado debido a la energía de sus fotones). En cualquier caso, uno y otro habrían de ser diferenciados siempre de la imprecisión del aparato o los posibles efectos del observador. El segundo de los grandes teóricos de estos años sería el físico austriaco nacionalizado irlandés Erwin Schrödinger (1887-1961), quien en oposición a la mecánica matricial de Heisenberg publicaría en 1926 su ecuación de mecánica ondulatoria. Esta nueva mecánica resultaría en la práctica mucho más sencilla que la matricial; además, Schrödinger tendría en cuenta en su diseño una interpretación ondulatoria de la propia materia. Posteriormente, Max Born perfeccionaría aún más este sistema al declarar que el único aspecto observable de la función de ondas de la mecánica ondulatoria es su cuadrado, siendo este en realidad una representación de la densidad de probabilidad existente a la hora de hallar una partícula en el espacio. Con todo, la ecuación de Schrödinger acabaría revelando al poco de su publicación ciertas taras atribuidas en un principio a la obra de Heisenberg; los resultados finales basados en números complejos dificultaban su interpretación a nivel físico, al tiempo que demostraba una ambigüedad cercana a la descrita por el propio principio de incertidumbre. Finalmente, sería necesaria la intervención de un nuevo aporte teórico para dar con el sistema cuántico apropiado.

Tras esta formación de bases establecidas durante las primeras décadas del siglo XX, serían varias las cuestiones, innovaciones y paradojas que cubrirían el nuevo campo de la física cuántica, así como algunos otros emparentados. A la luz de las teorías expuestas por Erwin Schrödinger y Max Born, por ejemplo, el modelo atómico de Bohr se vería necesariamente modificado para incluir el concepto de orbital atómico, una descripción ondulatoria del tamaño, forma y orientación del espacio en donde es probable encontrar un electrón. El problema de la partícula en una caja (también conocido como pozo de potencial infinito), en el que un electrón encerrado en una caja uni o multidimensional rebota sin perder energía planteaba un caso de solución intuitiva para la física clásica pero anti-intuitiva desde el punto de vista cuántico, al presentar en aquel ciertos patrones de probabilidad de ubicación y niveles de energía específicos dada su condición de onda estacionaria. En el caso del pozo de potencial finito, cuyos límites no poseen el potencial infinito del anterior, la partícula puede escapar de nuevo anti-intuitivamente al atravesar parcialmente sus muros. Otra variante del pozo de potencial conocida como efecto túnel, en el que la partícula encerrada logra superar totalmente las barreras de potencial finito, serviría al físico y astrónomo ucraniano George Gamow (1904-1968) en su explicación de las reacciones espontáneas propias de la desintegración alfa, así como en la creación de un microscopio para la visualización a escala atómica, el microscopio de efecto túnel.

La física cuántica fundaría así sus propias bases hasta constituir un primer modelo considerado `clásico´. Sin embargo, sería necesario aún una reformulación de sus sistemas teóricos para conseguir un diseño práctico y comprensible. Esta labor recaería finalmente en manos del físico británico Paul Dirac (1902-1984), quien con su sistema de notación bra-ket, basado en paréntesis, lograría una modernización del lenguaje utilizado para el tratamiento de problemas cuánticos. Dicho sistema incluiría muchos de los conceptos considerados hoy básicios en el estudio de la física cuántica; el estado cuántico, por ejemplo, que indica los valores específicos de las propiedades físicas observables en un sistema cuántico. El observable, descrito como toda propiedad del estado de un sistema que puede ser determinada por alguna secuencia de operaciones físicas. Los estados propios o autoestados, es decir, aquellos estados cuánticos que no cambian al medir el observable asociado a ellos y que se corresponden con ciertos valores concretos de dicho observable, denominados valores propios o autovalores. La superposición cuántica, que define la posesión simultánea de dos o más valores por parte de un observable… etc. Muchos de estos conceptos son además aplicables en el marco de los espacios de Hilbert, una generalización de la geometría euclidea creada para la aplicación de conceptos geométricos y algebraicos a espacios de dimensiones arbitrarias. Esta noción, denominada así en honor del matemático alemán David Hilbert (1862-1943), resultaría de importancia crucial en la formulación matemática de la mecánica cuántica. Otro concepto de gran relevancia en el proceso de mejora y remodelación de esta rama física sería el del principio de exclusión de Pauli de 1925, por el cual dos fermiones no pueden ocupar el mismo estado cuántico en un átomo; es por esto que para cada espacio o tipo de orbital, solo es posible la existencia de, como máximo, dos electrones de spin contrario. Diez años más tarde, Erwin Schrödinger contribuiría a enriquecer aún más el amplio número de principios y paradojas inherentes al mundo de la mecánica cuántica al exponer su famoso experimento mental conocido como gato de Schrödinger, según el cual un gato, encerrado en una caja y sujeto a un sistema de envenenamiento regido por reacciones propias de la física cuántica, puede hallarse, bajo cierta interpretación, vivo y muerto simultáneamente. La paradoja del gato de Schrödinger es todavía hoy objeto de múltiples controversias.

Actualmente, la física cuántica tiene su aplicación en campos tan diversos como la informática (computación cuántica), la química (química cuántica), la electrónica (electrónica cuántica), la teoría de la información o la criptografía (criptografía cuántica, entrelazamiento cuántico), entre otros.

Ver también:
El jardín de los mundos que se ramifican: Borges y la mecánica cuántica

Entradas relacionadas:

Apuntes de Física: Teorías y leyes (1ª parte)
Apuntes de Física: Teorías y leyes (2ª parte)
Apuntes de Física: Teorías y leyes (3ª parte)
Apuntes de Física: Teorías y leyes (4ª parte)
Apuntes de Física: Teorías y leyes (5ª parte)
Apuntes de Física: Teorías y leyes (7ª parte)
Apuntes de Física: Teorías y leyes (8ª parte)

Otros apuntes en Diario de un explorador:

Apuntes de Física: Los orígenes del Universo (1ª parte)

Apuntes de Física: Teorías y leyes (5ª parte)

Los comienzos de la Física nuclear, así como de la Física de partículas, se remontan a las últimas décadas del siglo XIX. Concretamente, suele considerarse el descubrimiento de la radiactividad por parte del físico francés Henri Becquerel (1852-1908) en 1896 como el hito inicial que daría pie al desarrollo de ambas ramas de la física, e incluso para algunos, de la propia Era atómica. Un año antes, en 1985, el alemán Wilhelm Conrad Röntgen (1845-1923) había logrado producir por primera vez y de manera artificial un nuevo tipo de radiación de frecuencia superior a la ultravioleta, conocida hoy como rayos X; esto impulsó a muchos científicos de la época, como Becquerel, a la búsqueda de nuevos medios para la producción de estos rayos, siendo la opción del físico francés la del estudio de las emisiones fosforescentes en las sales de uranio. De manera fortuita, Becquerel descubrió que no era necesario que la luz del Sol incidiera en las sales para que estas emitieran su radiación, y que por tanto, dicha radiación, capaz de impresionar placas fotográficas, ionizar gases o atravesar cuerpos opacos, procedía directamente de la propia materia.

Rápidamente, el hallazgo de Becquerel condujo a que varios miembros de la comunidad científica se interesaran por el fenómeno, entre los cuales destacarían el británico Ernest Rutherford (1871-1937) y el matrimonio formado por el francés Pierre Curie (1859-1906) y la también francesa, aunque nacida en Polonia, Marie Curie (1867-1934). Entre los los principales logros alcanzados por el matrimonio Curie, dentro de una vida dedicada de lleno al estudio de la radiactividad, destacan la identificación del torio como elemento radiactivo y el descubrimiento de otros dos elementos con la misma propiedad, el polonio (llamado así en honor a la patria natal de Marie) y el radio. Las aportaciones más destacadas de Rutherford en este nuevo campo de la física comienzan en 1898 con el reconocimiento de dos clases distintas de fenómeno radioactivo a las que denominó radiación alfa y radiación beta. A estos dos tipos de radiación se le uniría un tercero en 1900, cuando el científico francés Paul Villard (1860-1943) descubrió los rayos gamma durante un estudio sobre las emisiones del radio. Tanto las radiaciones alfa y beta como los rayos gamma se explican a partir de la constitución del núcleo atómico y de la fuerza física que lo sostiene; la interacción nuclear fuerte. Ninguna de las fuerzas físicas conocidas hasta ese momento explican de forma coherente la unión entre protones y neutrones en el átomo; la interacción electrostática es repulsiva en el caso de los protones, y la fuerza gravitatoria resulta insuficiente para contrarrestar a aquella al ser unas 10^ -36 veces menor en una distancia tan cercana. Solo el posterior conocimiento del núcleo atómico y de la fuerza nuclear que lo liga podría explicar el fenómeno de la radiactividad. La interacción nuclear fuerte se caracteriza por ser atractiva, de gran intensidad y de muy corto alcance (del orden del fermi); bajo su acción, la densidad de los núcleos resulta ser constante e independiente del número de nucleones (protones y neutrones), siendo el enlace entre estos de la misma intensidad y naturaleza en todo caso. El efecto de la interacción nuclear fuerte es unas 100 veces mayor que el de la repulsión eléctrica (lo que explicaría su poder de unión entre protones, a pesar de las cargas), y resulta en sí mismo repulsivo a partir de una determinada distancia (alrededor de los 0,4 fm) conocida como distancia de equilibrio (tras la cual su intensidad aumenta de modo indefinido). A parte de esto cabe destacar que, en la unión entre nucleones, la masa total del núcleo es siempre menor que la suma de las masas de sus componentes; esto se debe a que, en el proceso de generación del núcleo, parte de la masa de los nucleones originales pasa a convertirse en energía de enlace, lo que se conoce en física nuclear como defecto de masa.

De esta forma, la interacción nuclear fuerte explica la unión entre los componentes del núcleo atómico y su energía intrínseca, pero, ¿De dónde proviene exactamente la radiación? ¿Qué procedimiento hace que de esta unión se desprenda posteriormente distintas partes de materia y energía? La respuesta a estos interrogantes se encuentra en el neutrón y su función estabilizadora dentro de la composición del núcleo; debido a las limitaciones de su alcance, la interacción nuclear fuerte no es capaz de cohesionar un núcleo atómico formado exclusivamente por protones, ya que, de ser así, la repulsión electrostática de estos sería tan elevada que acabaría venciendo a la fuerza nuclear. Sin embargo, los neutrones, que no poseen carga eléctrica, aportan parte de la interacción nuclear fuerte al átomo sin generar con ello ningún tipo de repulsión electrostática. Es por esto que, para alcanzar cierta estabilidad en su núcleo, un átomo debe de contener un número más o menos similar de protones y neutrones. Para los núclidos (posibles especies nucleares de un elemento químico) más pequeños, el número de protones y neutrones es el mismo; sin embargo, a medida que aumenta la cantidad de protones, la creciente repulsión electrostática hace necesario un número cada vez mayor de neutrones. Por otra parte, a pesar de su función estabilizadora, los neutrones son en sí mismos partículas inestables, que de no tener próximo un nucleón de carga positiva, pierden su naturaleza neutra y pasan a convertirse en protones, emitiendo una partícula beta (electrón) durante el proceso. Todo esto lleva a que, para un determinado número atómico (número de protones en el núcleo), más concretamente a partir del elemento químico número 83, el bismuto, la cantidad de neutrones resulte excesiva, siendo entonces necesario recurrir o bien a la expulsión de partículas alfa, o bien a la desintegración de neutrones para recuperar la estabilidad en el núcleo. Precisamente ambos procesos serían los que Ernest Rutherford habría descubierto poco después del hallazgo de Becquerel, e identificado posteriormente como radioactividad. La radiación alfa supone la expulsión de átomos de helio completamente ionizados, emitidos a una velocidad próxima de 16.000 km/s y con una baja capacidad de penetración en la materia (en general, no traspasan el grosor de varias hojas de papel), siendo su carga eléctrica positiva. La radiación beta se corresponde con la emisión de electrones durante la conversión de los neutrones en electrones, protones y antineutrinos (desintegración beta); puede alcanzar una velocidad próxima a los 260.000 km/s, es frenada por una lámina delgada de metal y posee carga eléctrica negativa. A estas dos reacciones habría que añadir la radiación gamma de Villard, de naturaleza electromagnética y con una gran energía y poder de penetración sobre la materia (solo es frenado por planchas de plomo o muros gruesos de hormigón). En conjunto, los tres tipos de reacciones mencionados constituyen el conjunto de lo que se conoce como radioactividad. Estudios posteriores al descubrimiento de Becquerel revelarían además cómo las citadas reacciones resultan ser independientes de la presión o temperatura ambiente, así como del hecho de que la sustancia emisora participe en reacciones químicas o disoluciones. Tanto el propio Rutherford como su colega durante las investigaciones, el inglés Frederick Soddy (1877-1956), contribuirían con el paso de los años al desentrañamiento de fenómeno radiactivo con numerosos principios y leyes; en 1903, ambos científicos publicarían un artículo conjunto titulado “La causa y naturaleza de la radiactividad” en el que se establecían las bases de las leyes de desplazamiento radiactivo modernas. De acuerdo con estas, los elementos químicos correspondientes a átomos radioactivos pueden variar su posición en la tabla periódica según el tipo de radioactividad; si un núcleo radiactivo emite una partícula alfa, el elemento resultante se desplaza dos lugares a la izquierda en el sistema periódico, disminuyendo dos unidades en su número atómico y cuatro en su masa. Si emite un electrón beta, se desplaza un lugar a la derecha, aumentando en una unidad su número atómico sin alterar su masa. Si emite radiación gamma, se desexcita energéticamente sin sufrir transmutación alguna. Gracias nuevamente a Rutherford, se introduciría el concepto de período de semidesintegración o semivida (tiempo que tarda en desintegrarse la mitad de los nucleos iniciales de una sustancia) al descubrir en 1904 que la actividad de un cuerpo radiactivo disminuía exponencialmente con el tiempo. Y también a partir de las investigaciones sobre la desviación de rayos alfa en su encuentro con láminas de mica, el premio Nobel británico lograría establecer uno de los principales hitos en el desarrollo de la física nuclear y de la física moderna en general; el descubrimiento del núcleo atómico.

La desviación de partículas alfa en su contacto con cierto materiales revelaba una fuerza eléctrica muy intensa en sus componentes; para 1907, este hecho supondría la apertura de una línea de investigación que, tan solo dos años más tarde, mediante la experimentación con láminas de oro, llevaría al descubrimiento de la constitución interna de los átomos. Para entonces varios científicos habían sentado ya algunos precedentes de importancia; en 1886, el físico alemán Eugen Goldstein (1850-1930) observaría por primera vez los rayos canales, compuestos por cationes, al perforar el cátodo en un tubo de rayos catódicos. Durante sus observaciones, Goldstein comprobaría también que la relación carga/masa de las nuevas partículas positivas dependía del gas que se encerrase en el tubo y aumentaba además con su masa atómica, a diferencia de lo que ocurría con los rayos catódicos. En 1897, el británico Joseph John Thomson (1856-1940) midió la relación carga/masa de los rayos catódicos y demostró su naturaleza corpuscular, descubriendo así el electrón. En 1909, el estadounidense Robert Millikan (1868-1953) determinaría la carga del electrón al mantener en suspensión pequeñas gotas de aceite en un medio gaseoso gracias a la acción de un campo eléctrico vertical (experimento de la gota de aceite). El mismo año del experimento de Millikan, Ernest Rutherford daba comienzo a sus estudios sobre la desviación de partículas alfa en láminas de oro con la colaboración del investigador alemán Hans Geiger (1882-1945) y del británico Ernest Marsden (1889-1970); para ello, este grupo de científicos diseñaría un dispositivo compuesto por una caja de plomo, en cuyo interior se alojaría el producto emisor de rayos alfa (polonio según algunas fuentes, bismuto según otras), un detector-contador de partículas, una pantalla de sulfuro de cinc, y una lámina de oro de unos 200 átomos de grosor. De acuerdo con el modelo atómico propuesto por J.J. Thomson en 1904, según el cual las partículas elementales de la materia consistirían en un diminuto cuerpo de 10^ (-10) m de diámetro con los electrones distribuidos sobre una masa homogénea de carga positiva, la desviación de las partículas alfa debía ser mínima dada la diferencia de su masa (8.000 veces la del electrón) y el alcance de su velocidad (20.000 km/s). Esto resultó ser así para la mayoría de los casos; sin embargo, un pequeño porcentaje de las partículas emitidas por el sistema presentaban desviaciones con un ángulo superior a los 90º, y algunas de ellas (un 0,005 %) incluso rebotaban. En consecuencia, Rutherford concluiría que el modelo de J.J. Thomson resultaba erróneo, siendo los átomos en realidad un compuesto formado por un núcleo de carga positiva y un número de electrones en suspensión cuyo volumen final podía considerarse como espacio vacío; así, las partículas alfa atravesarían el espacio vacío de los átomos de oro en la mayoría de las ocasiones, siendo los casos excepcionales el resultado de un choque fortuito con el núcleo. Todo ello quedaría expuesto en 1911 en un nuevo modelo para partículas fundamentales conocido como modelo atómico de Rutherford, y, lo que es más importante, supondría la primera inclusión del concepto de un núcleo atómico con átomos oscilantes en un modelo de estas características. Investigaciones posteriores darían a conocer con mayor detalle la naturaleza física del núcleo y su composición; Ernest Rutherford descubriría el protón al examinar los resultados de sus estudios sobre emisiones de partículas alfa contra gas de nitrógeno de 1918, mientras que el físico inglés James Chadwick (1891-1974) haría lo propio con el neutrón en 1932 al reinterpretar los datos obtenidos por los franceses Fréderic Joliot (1900-1958) e Irène Joliot-Curie (1897-1956) al bombardear nucleos de berilio y parafina con partículas alfa. Otros datos de interés acerca del núcleo atómico recabados durante esta época serían el de su tamaño, de aproximadamente 10^(-15) metros, su densidad, de 2,4 x 10^17 kg/m^3, y su forma, básicamente esférica aunque de bordes difusos.

La sucesión de descubrimientos sobre el átomo y su increible potencial energético a principios del siglo XX se vería rápidamente traducido a todo un conjunto de inventos y aplicaciones prácticas. Gracias a los conocimientos aportados por la ley de la desintegración radiactiva y a los estudios sobre descomposición de materiales radiactivos en general se hizo posible para los científicos averiguar la antigüedad de ciertos restos arqueológicos, siendo la datación arqueológica del carbono-14 su método más famoso. A esto contribuiría también los estudios sobre series radiactivas (serie de elementos químicos relacionados en un proceso de desintegración radiactiva) y la ley de la geocronología (que estudia la formación de dichas relaciones durante el proceso). También gracias al desarrollo de este campo de la física se daría la aparición de nuevas ramas en el ámbito de la ciencia médica, como es el caso de la medicina nuclear, o la ampliación de otras ya conocidas, como la radiología. Pero sin duda, el mayor impacto social y cultural derivado de los estudios sobre el átomo vendría dado por la explotación de su potencial energético; para ello sería necesario que científicos como sir John Cockcroft (1897-1967), de origen británico, y Ernest Walton (1903-1995), irlandés, (ambos célebres por sus experimentaciones acerca del bombardeo de partícular aceleradas de 1932), o los alemanes Otto Hahn (1879-1968) y Fritz Strassmann (1902-1980), pioneros, junto con la sueca Lise Meitner en la fisión por inducción del núcleo, establecieran las bases para el control técnico de las reacciones nucleares artificiales. El trabajo de esta generación de científicos daría lugar al conocimiento de los dos procesos físicos mediante los cuales es posible hoy obtener energía del núcleo atómico: la fisión y la fusión nuclear. En la fisión nuclear, el núcleo de un elemento radiactivo es desestabilizado por el choque de un neutrón. Cuando las fuerzas de repulsión tras el choque son mayores que las de atracción, se produce su división en dos núcleos menores, liberándose durante el proceso gran cantidad de energía y emitiéndose a su vez numerosos neutrones. Esta emisión de neutrones supuso para los científicos un problema considerable, ya que, al ser liberados de forma incontralada en un medio con material radiactivo, podía provocar la desestabilización de otros núcleos de manera exponencial, liberando con ello una cantidad excesiva de energía por reacción en cadena. Para evitar esto, era necesario absorber el mayor número posible de neutrones emitidos durante la fisión, una cuestión resuelta posteriormente por el italiano Enrico Fermi (1901-1954), y el húngaro-estadounidense Léo Szilárd (1898-1964), al idear la inclusión de grafito y barras de cadmio para la relentización y absorción de neutrones, respectivamente, en su diseño del primer reactor nuclear funcional (fisión en cadena controlada). La fusión nuclear supone la formación de núcleos atómicos complejos a partir de la unión entre otros más simples, tal y como describirían Fritz Houtermans (1903-1966), polaco, y Robert Atkinson (1898-1982), británico, en su artículo de 1929 sobre las reacciones de fusión en los núcleos estelares. Existen varios procesos a través de los cuales la fusión nuclear es posible, aunque se considera a la cadena protón-protón (Apuntes de Física: Los Orígenes del Universo – 7ª parte) el más importante de todos ellos. La energía emitida durante el proceso de fusión resulta además enorme debido al defecto de masa entre los productos y los reactivos involucrados, sobrepasando con diferencia la producción correspondiente a la ingeniería conocida en el momento de su descubrimiento; sin embargo, las altas condiciones de temperatura y presión necesarias para que el proceso de fusión sea posible y el tipo de tecnología correspondiente hacen que esta forma de obtención de energía no haya podido resultar rentable hasta el presente.

Con el tiempo, el desarrollo técnico en materia de producción y control de energía nuclear supondría la aparición de las primeras centrales nucleares en los países desarrollados, un modelo de instalación acreditada ante la sociedad por su supuesta limpieza y eficiencia, así como por su facultad liberadora frente a los hidrocarburos. Sin embargo, estos complejos industriales no tardarían en mostrar con los años sus correspondientes contrapartidas; los métodos de extracción del uranio (el principal combustible de las centrales nucleares) resultaban agresivo con el entorno, necesitándose remover una cantidad de tierra considerable para obtener un mínimo de material radiactivo. Los residuos de este mismo combustible resultaron ser altamente contaminantes, siendo además su procesado un auténtico problema debido a la lentitud de su descomposición. Aparte de todo esto, y a pesar de las altas medidas de seguridad adoptadas en este tipo de instalaciones, un posible accidente nuclear podía desencadenar consecuencias devastadoras para el entorno, tal y como se pudo comprobar en los casos de Three Miles Island (EEUU) de 1979, o Chernóbyl (Ucrania), en 1986. La futura proliferación de armamento nuclear durante la Segunda Guerra Mundial, promovidas en Estados Unidos a través del proyecto Manhattan (cuya dirección científica correría a cargo del físico estadounidense Robert Oppenheimer), así como de los proyectos Uranio y Borodino de Alemania y la Unión Soviética, las famosas detonaciones de Hiroshima o Nagasaki, o la escalada armamentística durante la Guerra Fría no harían sino profundizar, en este sentido, el descontento popular frente a la energía nuclear y provocar los actuales movimientos sociales partidarios de su abolición.

Ver también:

Wikipedia _ Guerra Nuclear

Entradas relacionadas:

Apuntes de Física: Teorías y leyes (1ª parte)
Apuntes de Física: Teorías y leyes (2ª parte)
Apuntes de Física: Teorías y leyes (3ª parte)
Apuntes de Física: Teorías y leyes (4ª parte)
Apuntes de Física: Teorías y leyes (6ª parte)
Apuntes de Física: Teorías y leyes (7ª parte)
Apuntes de Física: Teorías y leyes (8ª parte)

Otros apuntes en Diario de un explorador:

Apuntes de Física: Los orígenes del Universo (1ª parte)

Apuntes de Física: Teorías y leyes (4ª parte)

La formación de imágenes mediante los fenómenos de reflexión y refracción (vistos en la anterior partes de estos mismos apuntes de física sobre teorías y leyes), suponen la materia de estudio de la óptica geométrica. Tanto la óptica por reflexión como la óptica por refracción pueden ser considerada en sus bases a partir de modelos de imágenes en espejos planos y esféricos (cóncavos o convexos), o a través de lentes delgadas de diferentes formas, respectivamente. En estos modelos, la superficies curvas pueden considerarse esféricas tanto para espejos como para lentes a efectos prácticos.

El estudio de la óptica geométrica se encuentra sostenida por algunas leyes importantes; la ley de propagación rectilínea de la luz, establecida desde la Antigüedad, es perfectamente observable en la experiencia; la ley de independencia de los rayos luminosos establece que la acción de cada rayo es independiente de la de los demás, sin guardar relación con el hecho de que las demás actúen o no simultáneamente; la ley de reciprocidad, según la cual la trayectoria de un rayo que, partiendo de un punto F, se reflejara o refractara en un punto O de la superficie para llegar a P sería igual si se diera a la inversa, y las leyes de refracción y reflexión. El estudio de esta última permite entender el modo en que se ven las imágenes en los espejos. En el espejo plano, un foco emisor de luz reflejado genera para el observador externo una imagen secundaria denominada foco virtual. Ese foco virtual, al igual que el reflejo de cualquier otro objeto, es siempre simétrico. De acuerdo con esto, la representación de una imagen reflejada en un espejo plano puede conseguirse prolongando líneas perpendiculares a los puntos de la superficie que definen la imagen hacia el interior del reflejo. Por ejemplo, una mano izquierda reflejada aparecerá para el observador siempre como una mano derecha. Esta propiedad de la imagen del espejo plano se denomina inversión lateral. Además, esta imagen es virtual y del mismo tamaño que el objeto. El caso de los espejos esféricos resulta diferente debido a sus características particulares; su forma hace converger en un solo punto los rayos reflejados, lo que los convierte en superficies ideales para la obtención de una imagen nítida y luminosa de los objetos lejanos. A estos cuerpos capaces de hacer converger los rayos de luz en un punto se les denomina espejos paraboloides. A pesar de todo, la construcción de un espejo paraboloide resulta muy difícil, por lo que, en su lugar, se utilizan espejos esféricos, cuya fabricación resulta mucho más sencilla; la contrapartida de esta sustitución es que, en el espejo esférico, no todos los rayos convergen en un mismo punto (aberración esférica), sino que solo lo hacen aquellos rayos próximos al eje óptico, es decir, el eje que une al objeto reflejado con el centro de la curvatura de la lente y al centro del propio espejo. Estos rayos se denominan rayos paraxiales. En las formulaciones relativas a la localización del punto de convergencia de los rayos paraxiales, es posible tener en cuenta también las dimensiones del objeto reflejado para obtener con ello un esquema gráfico denominado diagrama de rayos, con el que es posible averiguar el resultado específico del reflejo. De acuerdo con el diagrama de rayos, para un espejo esférico cóncavo, la imagen es real, invertida y disminuida si la distancia a la que se encuentra un observador (reflejado) es mayor que el radio de curvatura (distancia entre el centro de curvatura y el vértice); es real, invertida y mayor pero todavía disminuida si el observador se acerca al centro de curvatura; es real, invertida y de tamaño natural cuando el observador se sitúa en el centro de curvatura; es real, invertida y aumentada si el observador sobrepasa el centro de curvatura; y, finalmente, es virtual (la imagen se forma detrás del espejo), derecha y aumentada si el observador se sitúa más allá del foco, es decir, el punto donde se forma la imagen. Para un espejo convexo, la imagen es siempre virtual, derecha y disminuida.

La óptica por refracción supone el estudio de la formación de imágenes vistas a través de superficies refractoras; en todo caso, una superficie refractora desviará los rayos de luz provenientes de un medio con un índice de refracción determiando, dando como resultado un efecto visual en concreto. Si consideramos un objeto luminoso situado en un medio de índice de refración determinado frente a una superficie refractora convexa, veremos como los rayos luminosos son desviados al entrar en contacto con la superficie, dirigiéndose hacia la normal en el caso de que el índice de refracción del nuevo medio sea mayor que el anterior. En un caso así, es posible relacionar la distancia a la que se forma la imagen con la distancia a la que se encuentra el objeto, y con las características de la superficie, así como con los índices de refracción de los medios gracias a la ecuación del dioptrio esférico, también conocida como aproximación gaussiana. Esta ecuación es también válida para la formación de imágenes por refracción en otras condiciones, siempre que se modifiquen convenientemente sus signos. En los problemas de óptica de refracción suelen definirse dos tipos de distancias focales; si el objeto está a una distancia muy lejana, los rayos incidentes pueden considerarse paralelos. El punto en el que convergen los rayos refractados se denomina foco imagen, y su distancia respecto al vértice de la superficie esférica refractante se conoce como distancia focal imagen. De la misma manera, puede establecerse un foco objeto, es decir, un punto desde el que deberían partir los rayos incidentes para que los rayos refractados salieran paralelos. La distancia de este foco respecto al vértice se denomina distancia focal objeto. Por otra parte, las imágenes formadas por refracción en superficies planas son siempre virtuales y se forman del lado del objeto (lado de incidencia).

Una de las aplicaciones prácticas más interesantes de la ecuación del dioptrio esférico es la fabricación de lentes para determinados usos (objetivos, prismáticos, lupas, etc). En esencia, una lente es un sistema óptico formado por dos o más superficies refractoras, de las que al menos una está curvada. Cuando las superficies refractoras son dos, la lente se denomina lente simple. Si además su grosor es depreciable en relación a las distancias del objeto, la imagen y el radio de la superficie esférica respecto del vértice, recibe el nombre de lente delgada. Dentro del grupo de lentes delgadas, existen además dos clases diferenciadas; la lentes convexas o convergentes, son más gruesas en su parte central y hacen converger los rayos que las atraviesan (siempre que el índice de refracción de la lente sea mayor que el del medio que la rodea); las lentes cóncavas o divergentes, son más delgadas en su parte central, lo que provoca la divergencia de los rayos que las atraviesan (en idénticas condiciones que las convergentes). Además, dependiendo de la forma de las dos superficies que la conforman, esta clasificación puede subdividirse en: lente biconvexa, lente plano-convexa, lente menisco-convexa, lente bicóncava, lente plano-cóncava y lente menisco-cóncava. La ecuación por la que se determina la distancia de la imagen respecto del vértice en función de la del objeto, del índice de refracción de la lente y de sus características constructivas se denomina ecuación del fabricante de lentes o fórmula de las lentes delgadas. También es posible una formulación de esta en función de la distancia focal, lo que se conoce como fórmula gaussiana de las lentes delgadas. Al igual que en el caso de los espejos esféricos, es posible determinar cómo y dónde se forma la imagen de un objeto en una lente delgada a partir de su distancia focal, así como de la posición y tamaño del objeto. Otro procedimiento complementario para ello es el método del diagrama de rayos. En el caso de las lentes biconvexas, por ejemplo, cuando la posición del objeto se encuentra entre el infinito y dos veces la distancia focal, la imagen se formará entre esta última y el foco, y será siempre real, invertida y disminuida. Si la posición del objeto es igual a dos veces la distancia focal, la imagen se formará también a una distancia de dos veces la focal, siendo entonces real, invertida y de tamaño natural. Si la posición del objeto se encuentra entre la distancia focal y dos veces esta, la imagen será real, invertida y aumentada, y se formará entre el infinito y dos veces la distancia focal. Si la posición del objeto es igual a la distancia focal, la imagen se forma en el infinito como un gran borrón. Cuando la posición del objeto es menor que la focal, la lente actúa como una lupa, produciendo una imagen virtual, derecha y aumentada. En una lente divergente es siempre virtual, derecha y disminuida.

Algunos instrumentos ópticos diseñados bajo los principios de la óptica geométrica son la lupa o lente de aumento, el microscopio simple, el microscopio compuesto, el telescopio refractor, el telescopio reflector (o newtoniano) y el telescopio catadióptrico.

Ver también:
Fisicanet – Óptica

Entradas relacionadas:

Apuntes de Física: Teorías y leyes (1ª parte)
Apuntes de Física: Teorías y leyes (2ª parte)
Apuntes de Física: Teorías y leyes (3ª parte)
Apuntes de Física: Teorías y leyes (5ª parte)
Apuntes de Física: Teorías y leyes (6ª parte)
Apuntes de Física: Teorías y leyes (7ª parte)
Apuntes de Física: Teorías y leyes (8ª parte)

Otros apuntes en Diario de un explorador:

Apuntes de Física: Los orígenes del Universo (1ª parte)

Apuntes de Física: Teorías y leyes (3ª parte)

En la 2ª parte de estos Apuntes de Física sobre teorías y leyes, vimos como a finales del siglo XIX, la ciencia había concluido que la naturaleza de la luz visible (y por extensión, la de todo tipo de radiación electromagnética) era esencialmente ondulatoria. Sin embargo, no siempre se pensó así, y de hecho, tampoco en el futuro seguiría manteniéndose esta línea de opinión (no al menos completamente), dada la cantidad de evidencias que por entonces empezaban a surgir indicando lo contrario.

Durante el siglo XVII, los mayores científicos de la época parecían representar alguna de las dos principales tendencias de opinión relativas a la concepción de la luz; por una parte, el ilustre físico y matemático inglés Sir Isaac Newton (1643-1727) sería partidario de la idea de que la luz era un compuesto de pequeños corpúsculos individuales que se propagaban en línea recta. Esta teoría quedaría expuesta en su obra de 1704, Opticks, en la que daría a conocer además sus experiencias sobre la dispersión de luz blanca al pasar por un prisma o sus predicciones sobre la aberración cromática, llegando a valerse de estas últimas para inventar su versión del telescopio reflector. En esta época, la teoría corpuscular de la luz resultaba plausible porque permitía explicar ciertos fenómenos como su propagación rectilínea, la reflexión o la refracción (que veremos después). Por otra parte, científicos como el físico, matemático y astrónomo neerlandés Christiaan Huygens (1629-1695) o el multidisciplinar Robert Hooke (1635-1703), de nacionalidad inglesa, serían partidarios de una teoría ondulatoria de la luz; la elaboración de dicha teoría correría a cargo del propio Huygens, quien la expondría en su obra Traité de la lumière, mientras que Hooke se encargaría de defenderla frente a la corpuscular de Newton. Esta teoría ondulatoria de la luz, que incluía la idea del éter como medio de propagación, permitía explicar fenómenos como la reflexión, la refracción, la difracción y, más tarde, las interferencias lumínicas. Debido en parte a que los fenómenos de interferencias y difracción no habían sido demostrados empíricamente hasta el momento, y en parte también por el peso científico de la persona que lo avalaba, la teoría corpúscular de Newton acabaría imponiendose entre la comunidad científica durante algún tiempo.

A principios del siglo XIX, la naturaleza de la luz fue puesta una vez más en entredicho debido a los experimentos que una nueva generación de científicos realizara para su investigación. El físico y médico inglés Thomas Young (1773-1829) pudo demostrar, gracias a un experimento de 1801 muy célebre hoy en día, conocido como experimento de la doble rendija, que existían ciertos patrones de interferencia en una luz procedente de una fuente lejana al difractarse a su paso por dos rejillas consecutivas, hecho que correspondía a una señal emitida en forma de ondas. Otro científico, el francés Agustin Jean Fresnel (1788-1827) logró demostrar también mediante la teoría ondulatoria modificada de Huygens la posibilidad de la interferencia y la propagación rectilínea de la luz, además de ciertos patrones de difracción. En 1850, el físico francés León Foucault (1819-1868) pudo comprobar experimentalmente cómo la velocidad de la luz era menor al pasar de un medio a otro de mayor densidad, justo al contrario de cómo había predicho Newton en su defensa del fenómeno de la refracción para una teoría corpuscular. Todas estas investigaciones acabarían por impulsar a la comunidad científica a rebatir la teoría corpuscular de la luz en beneficio de una teoría ondulatoria aparentemente capaz de explicar todos los fenómenos de naturaleza lumínica. Hechos posteriores (Ver Teorías y leyes_ 2ª parte), como la publicación en 1865 de la Teoría dinámica del campo electromagnético de Maxwell, en la que el físico escocés parecía concluir que la luz debía ser un tipo de onda electromagnética al comprobar que la velocidad de esta y la de las perturbaciones electromagnéticas postuladas en su teoría eran prácticamente idénticas, o los experimentos de generación y detección de ondas de radio de Rudolph Hertz en 1888 no hicieron sino consolidar las ideas acerca de la naturaleza de la luz en ese sentido.

Y sin embargo, toda esta sucesión de hallazgos no significaría necesariamente un final para la controversia acerca de la luz. A pesar de que con la unificación teórica de Maxwell la mayoría de los fenómenos electromagnéticos quedaban explicados, restaban aún ciertas cuestiones o casos para los que la física clásica no lograba dar una respuesta satisfactoria. La primera de las cuestiones en intervenir en el camino hacia una consolidación definitiva de la teoría ondulatoria de la luz en este periodo sería la denominada radiación del cuerpo negro, un planteamiento teórico conocido desde mediados del siglo XIX y desginado así por el físico de origen prusiano Gustav Kirchhoff (1824-1887). El cuerpo negro suponía para los científicos un objeto hipotético que por tener la cualidad de absorber toda la radiación recibida era considerado como el prototipo de emisor ideal, y al que mejor podría aplicársele por tanto ciertas teorías y leyes en materia de electro y termodinámica. Concretamente, las principales leyes aplicadas al cuerpo negro serían la ley de Stefan-Boltzmann y la ley de Wien, según las cuáles, desde una perspectiva clásica, la radiación de este objeto resulta proporcional a su temperatura e inversamente proporcional además a la cuarta potencia de su longitud de onda. Sin embargo, dicha interpretación resultaba incoherente para determinados valores en la longitud de onda, pues en la medida en que esta era menor, la potencia tendía a infinito, revelándose así una falla teórica conocida hoy como catástrofe ultravioleta. Para resolver esto, el físico alemán Max Planck (1858-1947) habría de recurrir una vez más a la teoría corpuscular de la luz al concluir que la energía emitida en la radiación del cuerpo negro guardaba un valor que consistía siempre en el múltiplo entero de una constante determinada, conocida hoy como constante de Planck (6,63 x 10^-34 J/s), que esa emisión de unidades mínimas de energía se correspondía con el tipo de corpúsculos de que se componía la luz, denominados por Planck como quantum (y conocidos después como fotones), y que el número de osciladores atómicos de baja frecuencia en el cuerpo negro era muy superior al de alta frecuencia. Con todo esto, Planck no solo lograría dar una explicación de la radiación del cuerpo negro a través de una teoría corpuscular de la luz, sino que daría pie a la creación de una nueva rama propia de la física moderna conocida como física cuántica. El segundo de los escollos frente a una teoría ondulatoria de la luz vendría dado irónicamente por el descubrimiento por parte de Rudolf Hertz del efecto fotoeléctrico, justamente cuando trabajaba por demostrar empíricamente los efectos descritos en la síntesis teórica de Maxwell, partidario de aquella teoría. Este efecto, por el que un cuerpo realiza una emisión de electrones al ser iluminado por un tipo de radiación determinada, parecía contradecir los principios de la física clásica al presentar una serie de características peculiares; la emisión de electrones solo se producía cuando la frecuencia de la luz incidente superaba cierto valor mínimo (frecuencia umbral). Por encima de dicho valor, un aumento de la intensidad lumínica producía el incremento del número de electrones emitidos, pero no de su energía cinética máxima, y además, dicha emisión era proporcional a la intensidad de la radiación luminosa recibida. De acuerdo con la física clásica, el efecto fotoeléctrico debía producirse para cualquier frecuencia, siempre que la intensidad luminosa fuese lo suficientemente grande; además, la energía cinética de los electrones debería aumentar con la intensidad, hecho que no sucedía. Para el físico Albert Einstein (1879-1955), la respuesta se hallaba en la misma propuesta corpuscular que Planck utilizara para resolver el problema de la radiación del cuerpo negro; tal y como explicara en su famoso artículo en la Annalen der Physik de 1905, la existencia de una frecuencia umbral se debía a que, los fotones de luz, al incidir sobre la materia, podía arrancar los electrones de sus átomos siempre y cuando contaran con una energía mínima determinada, que por otra parte variaba según el elemento atómico que contuviera al electrón. Por otro lado, la energía extra que contuvieran los fotones servirían para imprimir energía cinética a los electrones extraídos. Así quedaba explicado por qué tanto el efecto en sí como la energía cinética de los electrones dependían únicamente de la frecuencia. El tercero de los fenómenos en consolidar la teoría corpuscular de la luz sería el efecto Compton, descubierto en 1922 por el físico estadounidense Arthur Compton (1892-1962), y consistente en el aumento de la longitud de onda de un fotón perteneciente al rango de los rayos X al chocar con un electrón libre. Este efecto sería explicado posteriormente por el propio Compton al demostrar que el aumento en la longitud de onda podría darse si la incidencia entre la radiación y la materia se entendía como choques entre corpúsculos individuales.

Finalmente, la teoría corpuscular de la luz terminaría por recuperar su posición dentro del ámbito científico; sin embargo, se reconocía aún que ciertas propiedades de la luz se explicaban de acuerdo a una teoría ondulatoria, por lo que se decidiría asumir un tipo de teoría conjunta que conciliara ambas concepciones en lo que se conoce como dualidad onda-corpúsculo; de esta forma se reconocía que la luz era una realidad física ambigua en la que tanto las ondas podían presentar un comportamiento de partícula como al contrario. El principal impulsor de esta teoría sería el físico francés Louis-Victor De Broglie (1892-1987), quien formularía su hipótesis en 1924.

Los principales fenómenos físicos asociados a la luz son la reflexión, la refracción, la difracción, las interferencias y la polarización. Todos ellos pueden ser explicados por el principio de Huygens, según el cual la dinámica de ondas se produce a través de frentes cuyos puntos actúan como focos de emisión. También resulta de interés el estudio de su velocidad, propagación y dispersión.

La reflexión es un cambio de dirección de un rayo de luz al encontrarse con la superficie de un medio distinto a aquel por el que se desplaza, regresando de esta forma a su medio inicial. Durante la reflexión es posible que parte del rayo de luz pase a propagarse por el otro medio (rayo refractado). En todo caso, en una reflexión, el rayo incidente, el rayo reflejado y el rayo refractado se encuentran en un mismo plano, denominado plano de incidencia. Además, el ángulo de incidencia y el de reflexión son iguales. Ambos hechos forman parte de lo que se conoce como ley de la reflexión. En determinadas ocasiones, cuando la superficie sobre la cual incide el rayo es lo suficientemente adecuada como para que se produzca un reflejo sin interferencias, se dice que la reflexión es especular. De lo contrario, se trata entonces de una reflexión difusa.

La refracción consiste en el cambio de dirección que experimenta un rayo de luz al pasar de un medio a otro debido a la diferencia de velocidad, siempre que incida sobre su superficie de manera oblicua. Cuando la luz se propaga por un medio transparente distinto del vacío, lo hace siempre a una velocidad menor; el cociente resultante de la división entre la velocidad de la luz en el vacío y la velocidad de la luz en un medio determinado se conoce como índice de refracción. En todo caso, el rayo refractado se acercará a la normal (vector perpendicular a la superficie del medio) con relación al incidente si la velocidad en el segundo medio es menor, de lo contrario, si la velocidad en ese medio es mayor, se alejará de dicho vector. Un cálculo del ángulo producido por el desvío de la luz durante la refracción puede realizarse a gracias a la ley de Snell.

La difracción es un fenómeno propio de la dinámica de ondas, por lo que no se incluye en la dinámica de partículas. Se dice que una onda se difracta cuando modifica su dirección de propagación al encontrarse con un obstáculo. En estos casos, la porción del frente de ondas que logra superar la barrera física se convierte en una línea de focos emisores de ondas secundarias. Si el espacio libre por el que transcurre el frente es muy grande comparado con la longitud de sus ondas, la difracción apenas será perceptible; si por el contrario la apertura y la longitud de ondas poseen dimensiones similares sí resultará relevante. Esta circunstancia determina también la geometría del nuevo frente de ondas. Debido a la acción de múltiples ondas durante la difracción, es común observar en ella patrones de interferencias; de hecho, la difracción en sí misma es considerada una forma de interferencia. Tanto para el fenómeno de la difracción como para las interferencias es aplicable otro principio propio de la dinámica de ondas conocido como principio de superposición de ondas; según dicho principio, la perturbación producida en un punto por dos o más ondas es igual a la suma algebraica de las perturbaciones producidas por cada una de las ondas de manera individual. De acuerdo con esto, y con el efecto producido por la combinación de ondas, las interferencias en un fenómeno de difracción pueden ser de tipo constructivo o destructivo, es decir, mayor o menor que el contenido en las ondas iniciales. En cualquier caso, la onda resultante de la interferencia es siempre armónica y posee la misma longitud de onda y frencuencia que las ondas originales; que uno u otro tipo de interferencia suceda dependerá más bien de la diferencia de fase entre dichas ondas (la diferencia de fase determina la mayor o menor sincronía en el movimiento de varias ondas con la misma longitud y frecuencia), o de la distancia recorrida en caso de que provengan de focos considerablemente distanciados, aunque lo más común es que se dé algún tipo de difracción intermedia. Por último, para que el fenómeno de difracción sea observable en el caso de la luz ( y en cualquier caso de interferencia de la luz en general) es necesario que la radiación procedente de los focos aislados sea coherente, es decir, que posea la misma longitud de onda y una diferencia de fase constante.

Para el resto de casos sobre interferencia de la luz bastará decir que siempre se manifestará como un patrón de claroscuros o secuencia alternada de zonas iluminadas y oscuras. Además, es también exclusivo de la dinámica de ondas.

La polarización es un fenómeno propio de las ondas transversales, es decir, las ondas electromagnéticas, por el cual el campo eléctrico de una onda oscila solo en un plano determinado, denominado plano de polarización. Tal y como vimos en la segunda parte de los apuntes, una onda electromagnética se compone por una campo eléctrico y otro magnético oscilante cuya propagación es perpendicular entre sí y perpendicular a su vez a la dirección de propagación de la onda. Desde esta perspectiva, cabría observar que el campo eléctrico ya oscila por un plano determinado; sin embargo, el efecto de la polarización es relevante para un foco de luz, generado por la radiación de múltiples átomos cuyos campos eléctricos oscilan en planos distintos. En el caso de la polarización de la luz, todos esos campos pasan a oscilar por un único plano de polarización. Algunos de los métodos para obtener luz polarizada son la absorción, la reflexión, la difusión y la birrefringencia.

En lo relativo a la velocidad de la luz, cabe resaltar los esfuerzos realizados desde al menos la época del Renacimiento para su medición; Galileo Galilei lo intentó sin éxito, convencido de que era finita. Otros científicos lograrían obtener resultados cercanos al valor conocido actualmente, 299.792.458 m/s. Es el caso del astrónomo danés Olaf Römer (1644-1710) quien se basaría para su estudio en las ocultaciones de la lunas galileanas de Júpiter, Armand Fizeau (1819-1896), un físico francés, autor de un dispositivo de rueda dentada y espejo diseñado específicamente para la medición y Albert A. Michelson (1852-1931), responsable del interferómetro.

La dispersión de la luz es el fenómeno por el cual un rayo de luz blanca se descompone en sus colores constituyentes al atravesar un cuerpo transparente, denominado dispersor. La explicación de dicho fenómeno radica en el hecho de que la luz blanca, así como cualquier haz luminoso en general, es un compuesto de ondas electromagnéticas de distintas frecuencias. Al atravesar determinados medios, la velocidad de la luz se ve afectada en función de la frecuencia de sus ondas; por esta misma razón, para esos materiales el índice de refracción aumenta con la frecuencia. El resultado de todo ello es que, al ser atravesado por la luz blanca, el medio dispersor refracta con una desviación distinta cada unos de los colores constituyentes, siendo los colores de mayor frecuencia los que más se acercan a la normal. Cabe destacar además que la desviación y el ángulo de dispersión se encuentran proporcionalmente vinculados, de manera que mientras mayor es dicho ángulo, mayor será el desvío y viceversa.

El esparcimiento de la luz es el resultado de la interacción de la radiación electromagnética con un medio cuyas partículas se encuentran notablemente separadas; en estos casos, si la frecuencia de la luz incidente no coincide con la frecuencia natural de las partículas del medio, se produce su reirradiación, esparciéndose en todas direcciones debido a la amplitud del espacio. Además, en los casos en que la longitud de onda sea superior al tamaño de las partículas del medio e inferior a su espacio de separación, se produce un caso específico de este fenómeno conocido como esparcimiento de Rayleigh (llamado así en honor del físico británico John William Strutt, tercer Barón de Rayleigh), por el cual la intensidad de luz esparcida resulta proporcional a la frecuencia elevada a la cuarta potencia. El esparcimiento de Rayleigh explica el hecho de que la luz esparcida en el aire se vea de color azul, puesto que dicho color corresponde a la radiación de mayor frecuencia dentro del espectro visible (superada solo por el violeta, para el que nuestra vista es mucho menos sensible). En el caso de las nubes o el humo, el esparcimiento de Rayleigh queda anulado debido a que el tamaño de las moléculas supera el límite por el cual el fenómeno es posible. La razón de que durante los amaneceres y atardeceres el cielo se torne rojo es que, durante esos instantes, la luz solar debe de atravesar una mayor franja de la atmósfera terrestre, por lo que el esparcimiento de luz azul alcanza su límite, dando paso al de la luz roja y otras radiaciones de menor frecuencia, con mayor alcance.

En cuanto a la transparencia, opacidad y color de los cuerpos, cabe destacar que consisten en fenómenos relacionados con la capacidad de absorción de la materia, lo que deriva a su vez en una mayor facultad de reflexión o transmisión de la luz recibida. Esta capacidad de absorción se explica por la oscilación de las partículas constituyentes de la materia, que a determinadas frecuencias asimilan la luz de una u otra forma, dando lugar a los fenómenos arriba señalados.

Ver también:

Christiaan Huygens y su concepto de materia.
Ilustraciones acerca de ciertos efectos lumínicos.
Didáctika.com – Reflexión especular y reflexión difusa.

Entradas relacionadas:

Apuntes de Física: Teorías y leyes (1ª parte)
Apuntes de Física: Teorías y leyes (2ª parte)
Apuntes de Física: Teorías y leyes (4ª parte)
Apuntes de Física: Teorías y leyes (5ª parte)
Apuntes de Física: Teorías y leyes (6ª parte)
Apuntes de Física: Teorías y leyes (7ª parte)
Apuntes de Física: Teorías y leyes (8ª parte)

Otros apuntes en Diario de un explorador:

Apuntes de Física: Los orígenes del Universo (1ª parte)

Apuntes de Física: Teorías y leyes (2ª parte)

En la primera parte de estos apuntes de Física, vimos como la electricidad había pasado de ser un fenómeno prácticamente desconocido a una de las subramas más destacadas de la ciencia. Durante las primeras etapas de esta evolución, la electrostática, la corriente eléctrica o la electroquímica se convierten en algunos de los principales temas de estudio. Sin embargo, con la llegada de los primeros descubrimientos que relacionaban la electricidad con el magnetismo, la ciencia eléctrica experimenta un importante giro, pasando de constituir un único cuerpo científico a formar parte de uno aún mayor y más complejo; el electromagnetismo.

onda electromagnética

La mayoría de las fuentes coinciden en fechar los inicios de la era electromagnética en 1820; ese año, mientras impartía una de sus clases prácticas de física en la Universidad de Copenhague, el profesor danés Hans Christian Oersted (1777-1851) pudo comprobar de manera casual como la aguja de una brújula veía afectada su dirección al activarse en torno suyo una corriente eléctrica. Este hecho demostraba que, al generarse, una corriente eléctrica producía a su alrededor un campo magnético. Antes de conectar una corriente eléctrica cercana, una aguja imantada señala hacia el norte-sur geográfico; al conectar la corriente, la aguja se sitúa perpendicularmente a ella, al tiempo que si se invierten los bornes del generador haciendo cambiar de sentido a la corriente, la aguja también lo hace, señalando en sentido contrario al de la vez anterior. Estudios posteriores al descubrimeinto de Oersted demostraron que la intensidad de estos campos magnéticos dependía de la intensidad de la corriente que los generaba y disminuía con la distancia al conductor; además, su dirección dependía del sentido de la corriente.

Tras descubrirse el vínculo natural que lo unía a la fuerza eléctrica, el magnetismo pasó a ser considerado un importante objeto de estudio para la ciencia; sin embargo, durante mucho tiempo, este fenómeno hubo de sufrir un gran desinterés por parte de la comunidad científica. Su nombre se debe a una antigua ciudad griega llamada Magnesia, en donde era común un mineral con propiedades magnéticas, conocido hoy como magnetita. Las razones por las que la magnetita poseía propiedades magnéticas son las mismas para el resto de cuerpos magnéticos; la Wikipedia lo explica de la siguiente manera:

Cada electrón es por su naturaleza, un pequeño imán. Ordinariamente, innumerables electrones de un material están orientados aleatoriamente en diferentes direcciones, pero en un imán casi todos los electrones tienden a orientarse en la misma dirección, creando una fuerza magnética grande o pequeña dependiendo del número de electrones que estén orientados. […] Además del campo magnético intrínseco del electrón, algunas veces hay que contar también con el campo magnético debido al movimiento orbital del electrón alrededor del núcleo.

De esta forma, cualquier cuerpo que, por estas razones, sea capaz de atraer objetos metálicos hacia sí, es considerado un imán. Los imanes pueden ser naturales o artificales; se dice que son naturales cuando su capacidad atractiva se debe a su propia composición natural, y artificiales cuando han sido magnetizados por una imantación previa. La imantación puede producirse por frotamiento, por contacto o por la acción de una corriente eléctrica;  puede ser además temporal o permanente. Todo imán consta de dos polos magnéticos denominados norte y sur en donde la capacidad atractiva es más intensa. De una manera análoga a como ocurre con las cargas eléctricas, los polos magnéticos del mismo tipo se repelen, mientras que los opuestos se atraen. Además, cada imán está a su vez compuesto por unidades elementales imantadas, de manera que, si se fracciona, las partes resultantes contendrán a su vez sendos polos norte y sur, idénticos a los originales. La acción magnética se produce a través de un campo de fuerzas denominado campo magnético cuyas características son similares a las comentadas anteriormente para el campo eléctrico; como en este, el parámetro de mayor importancia es la intensidad de campo (magnético), que se reduce con la distancia al imán y las líneas de fuerza no se cortan. Por convenio se dice que estas líneas salen del polo norte y entran en el polo sur.

Debido al movimiento de los metales (principalmente hierro y níquel) en estado líquido que hay en su núcleo, la Tierra posee su propio campo magnético, denominado campo magnético terrestre. Este campo se extiende desde el interior de la Tierra hasta el espacio exterior, sin un límite determinado. Suele relacionarse la polaridad geográfica de la Tierra con su polaridad magnética; sin embargo, ni coinciden en su orientación (el polo sur magnético se encuentra orientado hacia el norte geográfico) ni tampoco en su localización física (el eje de ambas polaridades no es el mismo). A pesar de todo, debido a su forzosa relación con el polo norte geográfico y al uso de la brújula, se denomina polo norte al polo sur magnético; la diferencia entre ambos polos medida en grados se denomina declinación magnética. Uno de los principales efectos del campo magnético terrestre es la formación de la magnetosfera, una región atmosférica que actúa como escudo frente al viento solar. Además, supone una protección fundamental frente a los rayos cósmicos, y un importante agente activo en la formación de las dorsales oceánicas.

Campo magnético terrestre

El descubrimiento fortuito de Oersted provocó de forma casi inmediata una investigación científica acerca de los vínculos que unían a los fenómenos eléctricos y magnéticos. Quizás la principal contribución teórica en estos primeros años de la era del electromagnetismo se deba a Ampère (Ver Teoría y leyes [1ª parte]), quien, en 1922 y 1926 publicó sendos trabajos sobre los principios de la electrodinámica (el estudio teórico de la radiación electromagnética); por estas obras y por su labor científica en general, Ampère es considerado junto con Oersted el fundador de la ciencia electromagnética. En el campo de la ingeniería destacan las aportaciones del físico británico William Sturgeon (1783-1850), inventor del electroimán (1825), el conmutador para motores eléctricos (1832), y el galvanómetro de bobina giratoria (1836), y del pintor estadounidense Samuel Morse (1791-1872), inventor del telégrafo y de un sistema de señales diseñado para su uso, el Código Morse. En 1831, Faraday descubrió que el movimiento relativo entre un conductor eléctrico y un imán generaba en el primero una corriente eléctrica; el hallazgo de este fenómeno, conocido como inducción electromagnética, confirmó la sospecha que muchos científicos sostenían de que el experimento de Oersted podía realizarse inversamente y supuso el fundamento de inventos posteriores como los generadores, los motores eléctricos o el transformador. Por otra parte, el descubrimiento de Faraday se considera compartido con el estadounidense Joseph Henry (1797-1878), quién obtuvo los mismos resultados de manera simultánea e independiente al físico inglés. En esta misma época, otros científicos no específicamente especializados en la electricidad realizaron sus aportaciones; es el caso del inglés James Prescott Joule (1818-1889), teórico responsable de la ley de Joule, que cuantifica la generación de calor producido por una corriente eléctrica al atravesar una resistencia, quien además demostraría en 1841 junto con el alemán Hermann von Helmholtz (1821-1894) que la electricidad es una forma de energía y que, por tanto, cumple con la ley de conservación de la misma; o su compatriota William Thomson (1824-1907), cuyo trabajo supuso una importante aportación al campo de la termoelectricidad.

Gracias a la labor de estos y otros muchos científicos durante la primera mitad del s. XIX, el electromagnetismo como rama de la física queda fundada en sus bases y desarrollado en muchos de sus aspectos; sin embargo, es con la obra del notable físico escocés James Clerk Maxwell (1831-1879) cuando toda esa labor anterior queda finalmente unificada en una única teoría consistente y se establece el modelo de la electrodinámica moderna. Concretamente, la publicación de 1861 de Maxwell titulada On Physical Lines of Force contiene un conjunto de ecuaciones, denominadas ecuaciones de Maxwell, que en sí mismas describen por completo todo el conjunto de fenómenos electromagnéticos. Aparte, las ecuaciones de Maxwell sirivieron para demostrar que tanto el magnetismo y la electricidad como la luz son manifestaciones de un mismo tipo de campo, resultante de la combinación del campo eléctrico y magnético, denominado campo electromagnético (no he podido averiguar cómo). En el caso de la luz, su manifestación puede explicarse como una combinación de campos eléctrico y magnético oscilantes, perpendiculares entre sí y perpendiculares también a su dirección, que no necesita de ningún medio para propagarse y que alcanza una velocidad máxima en el vacío de 299.792 Km/s (velocidad de la luz). Las fuentes de la radiación electromagnética son cargas eléctricas aceleradas, es decir, que cambian con el tiempo su velocidad de movimiento; al generarse un campo eléctricos o magnético variable, se produce a su vez un campo del tipo “contrario” (el eléctrico produce uno magnético y viceversa), razón por la que se explica la radiación electromagnética y la autosustentación de sus ondas. Las ondas electromagnéticas poseen como características principales la elongación, que mide el desplazamiento de un punto respecto a la posición de equilibrio, la amplitud, o elongación máxima (la “altura” de la onda), la longitud, definida como la distancia entre dos puntos análogos consecutivos, la frecuencia, que es el número de ciclos o vibraciones por unidad de tiempo, el periodo, que mide el tiempo invertido en efectuar un ciclo o vibración completa, y la velocidad de propagación, que varía según el medio. De acuerdo a su frecuencia y longitud, una onda electromagnética puede pertenecer a uno u otro rango determinado de todo un conjunto posible denominado espectro electromagnético; a menor longitud de onda y mayor frecuencia, mayor será el valor energético de la onda. De mayor a menor longitud de onda, el espectro electromagnético se compone de ondas de radio, microondas, rayos infrarrojos, luz visible, rayos ultravioletas, rayos X, y rayos gamma.

La constatación empírica de la existencia de las ondas electromagnéticas vendría dada años después de la publicación de Maxwell con el trabajo del físico aleman Heinrich Rudolf Hertz (1857-1894), quien en 1888 pudo demostrar la radiación electromagnética al producir ondas de radio durante sus investigaciones en la Universidad de Karlsruhe. Aparte, Hertz realizó una reformulación de las ecuaciones de Maxwell y descubrió el efecto fotoeléctrico, entre otros logros. La unidad de frecuencia en el Sistema Internacional de Unidades se denomina Hercio (Hz) en su honor.

espectro electromagnético

El desarrollo teórico del electromagnetismo durante la segunda mitad del siglo XIX vendría acompañado de una incesante serie de avances técnicos que, junto con el desarrollo de otros campos de la ingeniería, daría lugar a la segunda revolución industrial: en 1876 se atribuye la invención del teléfono al científico británico y miembro fundador de la National Geographic Society Alexander Graham Bell (1847-1922), quien tuvo que enfrentarse en vida a varios litigios por la autoría de este invento; en junio de 2002, el Congreso de los Estados Unidos de América aprobaría una resolución por la que se reconocería como inventor del teléfono al italiano Antonio Meucci (1808-1889). En 1879 se presenta un modelo perfeccionado de la lámpara incandescente diseñado por Thomas Alva Edison (1847-1931) que logra mantener su brillo durante 48 horas ininterrumpidas. En 1882 el ingeniero y físico inglés John Hopkinson (1849-1898) patenta el sistema trifásico. Una de las principales personalidades de esta época sería la del reconocido inventor croata-estadounidense Nikola Tesla (1856-1943) responsable de la creación de una base teórica para la generación de corriente alterna, y de muchos inventos diseñados para su aplicación, así como tantos otros ingenios; tras haber ingresado en los laboratorios de Thomas Edison, pasaría a fundar su propia compañía en parte debido a las diferencias entre ambos científicos sobre el uso de la corriente continua o alterna para el suministro de los aparatos eléctricos. Durante este periodo, Tesla crea el motor de inducción de corriente alterna (1887). Al no poder sostenerse económicamente, el científico croata pasa a formar parte de la compañía del también inventor George Westinghouse (1845-1914), a quien vende además las patentes de sus inventos. En esta época, la competencia entre la concepción técnica relativa al uso de corriente continua o alterna entre Edison (partidario de la CC), por una parte, y Tesla y Westinghouse (partidarios de la CA), por la otra, daría lugar a la conocida como “Guerra de las Corrientes“. En 1891 inventa la bobina de Tesla. En 1893 construye el primer radiotransmisor, hecho que le llevará durante las siguientes décadas a un importante litigio con el italiano Guillermo Marconi (1874-1937) por el reconocimiento de su autoría. Dicho litigio terminaría resolviéndose finalmente a favor de Tesla, quien sería reconocido oficialmente en Estados Unidos como inventor de la radio. En la misma década de los 90, a finales del s. XIX, se construiría la primera central hidroeléctrica de la historia en las cataratas del Niágara, gracias principalmente a los aportes técnicos desarrollados por Tesla. Las unidades de densidad de flujo magnético, inducción magnética y polarización magnética en el Sistema Internacional de Medidas llevan el nombre de este científico en su honor. Otros grandes diseños relacionados con el electromagnetismo irían apareciendo en los últimos años del siglo XIX; en 1895 el alemán Wilhelm Conrad Röntgen (1845-1923) produjo por primera vez rayos X. En 1899 Marconi consigue establecer comunicaciones entre Inglaterra y Francia a través del Canal de la Mancha gracias a la telegrafía sin hilos. Además, en 1897, el físico inglés Joseph John Thomson (1856-1940) logra desviar una proyección de rayos catódicos aplicando un campo magnético, demostrando así que dichos rayos estaban compuestos de partículas individuales, conocidas hoy como electrones, lo que supondría la primera identificación de una partícula subatómica.

Ya en el siglo XX cabe destacar las aportaciones del estadounidense Robert Andrews Millikan (1868-1953), quien determinó  en 1909 la carga del electrón (1,602 x 10^-19 C) gracias a su famoso experimento, o del holandés Heike Kamerlingh Onnes (1853-1926), pionero de la superconductividad. El descubrimiento de nuevos inventos no solo no cesaría en las sucesivas décadas sino que aún seguiría en aumento hasta el punto de transformar las culturas y sociedades humanas de manera similar a como ocurriera con las anteriores revoluciones industriales, afectando además de una manera muy específica a sus distintos sectores; surgen así inventos como el electrocardiograma, la televisión, el refrigerador doméstico, el radar, el acelerador de partículas subatómicas, el microscopio electrónico, el radiotelescopio, la fotocopia, la computadora, el transistor, el horno microondas, el satélite artificial, el marcapasos, el circuito integrado, el laser, la nave espacial, la estación espacial, el tren de levitación magnética, el transbordador espacial, Internet, la telefonía móvil, el Sistema de Posicionamiento Global, etc, nuevos campos de estudio y trabajo como la electromedicina, la informática, la robótica o las telecomunicaciones, y modos innovadores para la generación de energía eléctrica, como las centrales nucleares, los parques eólicos o las centrales de energía solar fotovoltáica.

Ver también:

Youtube – Electricidad Inalámbrica
Youtube – Tormenta magnética
Youtube – Ciencia al desnudo: Tierra magnética
Youtube – La luz, más allá de la visión

Entradas relacionadas:

Apuntes de Física: Teorías y leyes (1ª parte)
Apuntes de Física: Teorías y leyes (3ª parte)
Apuntes de Física: Teorías y leyes (4ª parte)
Apuntes de Física: Teorías y leyes (5ª parte)
Apuntes de Física: Teorías y leyes (6ª parte)
Apuntes de Física: Teorías y leyes (7ª parte)
Apuntes de Física: Teorías y leyes (8ª parte)

Otros apuntes en Diario de un explorador:

Apuntes de Física: Los orígenes del Universo (1ª parte)