Apuntes de Física: Teorías y leyes (5ª parte)

Los comienzos de la Física nuclear, así como de la Física de partículas, se remontan a las últimas décadas del siglo XIX. Concretamente, suele considerarse el descubrimiento de la radiactividad por parte del físico francés Henri Becquerel (1852-1908) en 1896 como el hito inicial que daría pie al desarrollo de ambas ramas de la física, e incluso para algunos, de la propia Era atómica. Un año antes, en 1985, el alemán Wilhelm Conrad Röntgen (1845-1923) había logrado producir por primera vez y de manera artificial un nuevo tipo de radiación de frecuencia superior a la ultravioleta, conocida hoy como rayos X; esto impulsó a muchos científicos de la época, como Becquerel, a la búsqueda de nuevos medios para la producción de estos rayos, siendo la opción del físico francés la del estudio de las emisiones fosforescentes en las sales de uranio. De manera fortuita, Becquerel descubrió que no era necesario que la luz del Sol incidiera en las sales para que estas emitieran su radiación, y que por tanto, dicha radiación, capaz de impresionar placas fotográficas, ionizar gases o atravesar cuerpos opacos, procedía directamente de la propia materia.

Rápidamente, el hallazgo de Becquerel condujo a que varios miembros de la comunidad científica se interesaran por el fenómeno, entre los cuales destacarían el británico Ernest Rutherford (1871-1937) y el matrimonio formado por el francés Pierre Curie (1859-1906) y la también francesa, aunque nacida en Polonia, Marie Curie (1867-1934). Entre los los principales logros alcanzados por el matrimonio Curie, dentro de una vida dedicada de lleno al estudio de la radiactividad, destacan la identificación del torio como elemento radiactivo y el descubrimiento de otros dos elementos con la misma propiedad, el polonio (llamado así en honor a la patria natal de Marie) y el radio. Las aportaciones más destacadas de Rutherford en este nuevo campo de la física comienzan en 1898 con el reconocimiento de dos clases distintas de fenómeno radioactivo a las que denominó radiación alfa y radiación beta. A estos dos tipos de radiación se le uniría un tercero en 1900, cuando el científico francés Paul Villard (1860-1943) descubrió los rayos gamma durante un estudio sobre las emisiones del radio. Tanto las radiaciones alfa y beta como los rayos gamma se explican a partir de la constitución del núcleo atómico y de la fuerza física que lo sostiene; la interacción nuclear fuerte. Ninguna de las fuerzas físicas conocidas hasta ese momento explican de forma coherente la unión entre protones y neutrones en el átomo; la interacción electrostática es repulsiva en el caso de los protones, y la fuerza gravitatoria resulta insuficiente para contrarrestar a aquella al ser unas 10^ -36 veces menor en una distancia tan cercana. Solo el posterior conocimiento del núcleo atómico y de la fuerza nuclear que lo liga podría explicar el fenómeno de la radiactividad. La interacción nuclear fuerte se caracteriza por ser atractiva, de gran intensidad y de muy corto alcance (del orden del fermi); bajo su acción, la densidad de los núcleos resulta ser constante e independiente del número de nucleones (protones y neutrones), siendo el enlace entre estos de la misma intensidad y naturaleza en todo caso. El efecto de la interacción nuclear fuerte es unas 100 veces mayor que el de la repulsión eléctrica (lo que explicaría su poder de unión entre protones, a pesar de las cargas), y resulta en sí mismo repulsivo a partir de una determinada distancia (alrededor de los 0,4 fm) conocida como distancia de equilibrio (tras la cual su intensidad aumenta de modo indefinido). A parte de esto cabe destacar que, en la unión entre nucleones, la masa total del núcleo es siempre menor que la suma de las masas de sus componentes; esto se debe a que, en el proceso de generación del núcleo, parte de la masa de los nucleones originales pasa a convertirse en energía de enlace, lo que se conoce en física nuclear como defecto de masa.

De esta forma, la interacción nuclear fuerte explica la unión entre los componentes del núcleo atómico y su energía intrínseca, pero, ¿De dónde proviene exactamente la radiación? ¿Qué procedimiento hace que de esta unión se desprenda posteriormente distintas partes de materia y energía? La respuesta a estos interrogantes se encuentra en el neutrón y su función estabilizadora dentro de la composición del núcleo; debido a las limitaciones de su alcance, la interacción nuclear fuerte no es capaz de cohesionar un núcleo atómico formado exclusivamente por protones, ya que, de ser así, la repulsión electrostática de estos sería tan elevada que acabaría venciendo a la fuerza nuclear. Sin embargo, los neutrones, que no poseen carga eléctrica, aportan parte de la interacción nuclear fuerte al átomo sin generar con ello ningún tipo de repulsión electrostática. Es por esto que, para alcanzar cierta estabilidad en su núcleo, un átomo debe de contener un número más o menos similar de protones y neutrones. Para los núclidos (posibles especies nucleares de un elemento químico) más pequeños, el número de protones y neutrones es el mismo; sin embargo, a medida que aumenta la cantidad de protones, la creciente repulsión electrostática hace necesario un número cada vez mayor de neutrones. Por otra parte, a pesar de su función estabilizadora, los neutrones son en sí mismos partículas inestables, que de no tener próximo un nucleón de carga positiva, pierden su naturaleza neutra y pasan a convertirse en protones, emitiendo una partícula beta (electrón) durante el proceso. Todo esto lleva a que, para un determinado número atómico (número de protones en el núcleo), más concretamente a partir del elemento químico número 83, el bismuto, la cantidad de neutrones resulte excesiva, siendo entonces necesario recurrir o bien a la expulsión de partículas alfa, o bien a la desintegración de neutrones para recuperar la estabilidad en el núcleo. Precisamente ambos procesos serían los que Ernest Rutherford habría descubierto poco después del hallazgo de Becquerel, e identificado posteriormente como radioactividad. La radiación alfa supone la expulsión de átomos de helio completamente ionizados, emitidos a una velocidad próxima de 16.000 km/s y con una baja capacidad de penetración en la materia (en general, no traspasan el grosor de varias hojas de papel), siendo su carga eléctrica positiva. La radiación beta se corresponde con la emisión de electrones durante la conversión de los neutrones en electrones, protones y antineutrinos (desintegración beta); puede alcanzar una velocidad próxima a los 260.000 km/s, es frenada por una lámina delgada de metal y posee carga eléctrica negativa. A estas dos reacciones habría que añadir la radiación gamma de Villard, de naturaleza electromagnética y con una gran energía y poder de penetración sobre la materia (solo es frenado por planchas de plomo o muros gruesos de hormigón). En conjunto, los tres tipos de reacciones mencionados constituyen el conjunto de lo que se conoce como radioactividad. Estudios posteriores al descubrimiento de Becquerel revelarían además cómo las citadas reacciones resultan ser independientes de la presión o temperatura ambiente, así como del hecho de que la sustancia emisora participe en reacciones químicas o disoluciones. Tanto el propio Rutherford como su colega durante las investigaciones, el inglés Frederick Soddy (1877-1956), contribuirían con el paso de los años al desentrañamiento de fenómeno radiactivo con numerosos principios y leyes; en 1903, ambos científicos publicarían un artículo conjunto titulado “La causa y naturaleza de la radiactividad” en el que se establecían las bases de las leyes de desplazamiento radiactivo modernas. De acuerdo con estas, los elementos químicos correspondientes a átomos radioactivos pueden variar su posición en la tabla periódica según el tipo de radioactividad; si un núcleo radiactivo emite una partícula alfa, el elemento resultante se desplaza dos lugares a la izquierda en el sistema periódico, disminuyendo dos unidades en su número atómico y cuatro en su masa. Si emite un electrón beta, se desplaza un lugar a la derecha, aumentando en una unidad su número atómico sin alterar su masa. Si emite radiación gamma, se desexcita energéticamente sin sufrir transmutación alguna. Gracias nuevamente a Rutherford, se introduciría el concepto de período de semidesintegración o semivida (tiempo que tarda en desintegrarse la mitad de los nucleos iniciales de una sustancia) al descubrir en 1904 que la actividad de un cuerpo radiactivo disminuía exponencialmente con el tiempo. Y también a partir de las investigaciones sobre la desviación de rayos alfa en su encuentro con láminas de mica, el premio Nobel británico lograría establecer uno de los principales hitos en el desarrollo de la física nuclear y de la física moderna en general; el descubrimiento del núcleo atómico.

La desviación de partículas alfa en su contacto con cierto materiales revelaba una fuerza eléctrica muy intensa en sus componentes; para 1907, este hecho supondría la apertura de una línea de investigación que, tan solo dos años más tarde, mediante la experimentación con láminas de oro, llevaría al descubrimiento de la constitución interna de los átomos. Para entonces varios científicos habían sentado ya algunos precedentes de importancia; en 1886, el físico alemán Eugen Goldstein (1850-1930) observaría por primera vez los rayos canales, compuestos por cationes, al perforar el cátodo en un tubo de rayos catódicos. Durante sus observaciones, Goldstein comprobaría también que la relación carga/masa de las nuevas partículas positivas dependía del gas que se encerrase en el tubo y aumentaba además con su masa atómica, a diferencia de lo que ocurría con los rayos catódicos. En 1897, el británico Joseph John Thomson (1856-1940) midió la relación carga/masa de los rayos catódicos y demostró su naturaleza corpuscular, descubriendo así el electrón. En 1909, el estadounidense Robert Millikan (1868-1953) determinaría la carga del electrón al mantener en suspensión pequeñas gotas de aceite en un medio gaseoso gracias a la acción de un campo eléctrico vertical (experimento de la gota de aceite). El mismo año del experimento de Millikan, Ernest Rutherford daba comienzo a sus estudios sobre la desviación de partículas alfa en láminas de oro con la colaboración del investigador alemán Hans Geiger (1882-1945) y del británico Ernest Marsden (1889-1970); para ello, este grupo de científicos diseñaría un dispositivo compuesto por una caja de plomo, en cuyo interior se alojaría el producto emisor de rayos alfa (polonio según algunas fuentes, bismuto según otras), un detector-contador de partículas, una pantalla de sulfuro de cinc, y una lámina de oro de unos 200 átomos de grosor. De acuerdo con el modelo atómico propuesto por J.J. Thomson en 1904, según el cual las partículas elementales de la materia consistirían en un diminuto cuerpo de 10^ (-10) m de diámetro con los electrones distribuidos sobre una masa homogénea de carga positiva, la desviación de las partículas alfa debía ser mínima dada la diferencia de su masa (8.000 veces la del electrón) y el alcance de su velocidad (20.000 km/s). Esto resultó ser así para la mayoría de los casos; sin embargo, un pequeño porcentaje de las partículas emitidas por el sistema presentaban desviaciones con un ángulo superior a los 90º, y algunas de ellas (un 0,005 %) incluso rebotaban. En consecuencia, Rutherford concluiría que el modelo de J.J. Thomson resultaba erróneo, siendo los átomos en realidad un compuesto formado por un núcleo de carga positiva y un número de electrones en suspensión cuyo volumen final podía considerarse como espacio vacío; así, las partículas alfa atravesarían el espacio vacío de los átomos de oro en la mayoría de las ocasiones, siendo los casos excepcionales el resultado de un choque fortuito con el núcleo. Todo ello quedaría expuesto en 1911 en un nuevo modelo para partículas fundamentales conocido como modelo atómico de Rutherford, y, lo que es más importante, supondría la primera inclusión del concepto de un núcleo atómico con átomos oscilantes en un modelo de estas características. Investigaciones posteriores darían a conocer con mayor detalle la naturaleza física del núcleo y su composición; Ernest Rutherford descubriría el protón al examinar los resultados de sus estudios sobre emisiones de partículas alfa contra gas de nitrógeno de 1918, mientras que el físico inglés James Chadwick (1891-1974) haría lo propio con el neutrón en 1932 al reinterpretar los datos obtenidos por los franceses Fréderic Joliot (1900-1958) e Irène Joliot-Curie (1897-1956) al bombardear nucleos de berilio y parafina con partículas alfa. Otros datos de interés acerca del núcleo atómico recabados durante esta época serían el de su tamaño, de aproximadamente 10^(-15) metros, su densidad, de 2,4 x 10^17 kg/m^3, y su forma, básicamente esférica aunque de bordes difusos.

La sucesión de descubrimientos sobre el átomo y su increible potencial energético a principios del siglo XX se vería rápidamente traducido a todo un conjunto de inventos y aplicaciones prácticas. Gracias a los conocimientos aportados por la ley de la desintegración radiactiva y a los estudios sobre descomposición de materiales radiactivos en general se hizo posible para los científicos averiguar la antigüedad de ciertos restos arqueológicos, siendo la datación arqueológica del carbono-14 su método más famoso. A esto contribuiría también los estudios sobre series radiactivas (serie de elementos químicos relacionados en un proceso de desintegración radiactiva) y la ley de la geocronología (que estudia la formación de dichas relaciones durante el proceso). También gracias al desarrollo de este campo de la física se daría la aparición de nuevas ramas en el ámbito de la ciencia médica, como es el caso de la medicina nuclear, o la ampliación de otras ya conocidas, como la radiología. Pero sin duda, el mayor impacto social y cultural derivado de los estudios sobre el átomo vendría dado por la explotación de su potencial energético; para ello sería necesario que científicos como sir John Cockcroft (1897-1967), de origen británico, y Ernest Walton (1903-1995), irlandés, (ambos célebres por sus experimentaciones acerca del bombardeo de partícular aceleradas de 1932), o los alemanes Otto Hahn (1879-1968) y Fritz Strassmann (1902-1980), pioneros, junto con la sueca Lise Meitner en la fisión por inducción del núcleo, establecieran las bases para el control técnico de las reacciones nucleares artificiales. El trabajo de esta generación de científicos daría lugar al conocimiento de los dos procesos físicos mediante los cuales es posible hoy obtener energía del núcleo atómico: la fisión y la fusión nuclear. En la fisión nuclear, el núcleo de un elemento radiactivo es desestabilizado por el choque de un neutrón. Cuando las fuerzas de repulsión tras el choque son mayores que las de atracción, se produce su división en dos núcleos menores, liberándose durante el proceso gran cantidad de energía y emitiéndose a su vez numerosos neutrones. Esta emisión de neutrones supuso para los científicos un problema considerable, ya que, al ser liberados de forma incontralada en un medio con material radiactivo, podía provocar la desestabilización de otros núcleos de manera exponencial, liberando con ello una cantidad excesiva de energía por reacción en cadena. Para evitar esto, era necesario absorber el mayor número posible de neutrones emitidos durante la fisión, una cuestión resuelta posteriormente por el italiano Enrico Fermi (1901-1954), y el húngaro-estadounidense Léo Szilárd (1898-1964), al idear la inclusión de grafito y barras de cadmio para la relentización y absorción de neutrones, respectivamente, en su diseño del primer reactor nuclear funcional (fisión en cadena controlada). La fusión nuclear supone la formación de núcleos atómicos complejos a partir de la unión entre otros más simples, tal y como describirían Fritz Houtermans (1903-1966), polaco, y Robert Atkinson (1898-1982), británico, en su artículo de 1929 sobre las reacciones de fusión en los núcleos estelares. Existen varios procesos a través de los cuales la fusión nuclear es posible, aunque se considera a la cadena protón-protón (Apuntes de Física: Los Orígenes del Universo – 7ª parte) el más importante de todos ellos. La energía emitida durante el proceso de fusión resulta además enorme debido al defecto de masa entre los productos y los reactivos involucrados, sobrepasando con diferencia la producción correspondiente a la ingeniería conocida en el momento de su descubrimiento; sin embargo, las altas condiciones de temperatura y presión necesarias para que el proceso de fusión sea posible y el tipo de tecnología correspondiente hacen que esta forma de obtención de energía no haya podido resultar rentable hasta el presente.

Con el tiempo, el desarrollo técnico en materia de producción y control de energía nuclear supondría la aparición de las primeras centrales nucleares en los países desarrollados, un modelo de instalación acreditada ante la sociedad por su supuesta limpieza y eficiencia, así como por su facultad liberadora frente a los hidrocarburos. Sin embargo, estos complejos industriales no tardarían en mostrar con los años sus correspondientes contrapartidas; los métodos de extracción del uranio (el principal combustible de las centrales nucleares) resultaban agresivo con el entorno, necesitándose remover una cantidad de tierra considerable para obtener un mínimo de material radiactivo. Los residuos de este mismo combustible resultaron ser altamente contaminantes, siendo además su procesado un auténtico problema debido a la lentitud de su descomposición. Aparte de todo esto, y a pesar de las altas medidas de seguridad adoptadas en este tipo de instalaciones, un posible accidente nuclear podía desencadenar consecuencias devastadoras para el entorno, tal y como se pudo comprobar en los casos de Three Miles Island (EEUU) de 1979, o Chernóbyl (Ucrania), en 1986. La futura proliferación de armamento nuclear durante la Segunda Guerra Mundial, promovidas en Estados Unidos a través del proyecto Manhattan (cuya dirección científica correría a cargo del físico estadounidense Robert Oppenheimer), así como de los proyectos Uranio y Borodino de Alemania y la Unión Soviética, las famosas detonaciones de Hiroshima o Nagasaki, o la escalada armamentística durante la Guerra Fría no harían sino profundizar, en este sentido, el descontento popular frente a la energía nuclear y provocar los actuales movimientos sociales partidarios de su abolición.

Ver también:

Wikipedia _ Guerra Nuclear

Entradas relacionadas:

Apuntes de Física: Teorías y leyes (1ª parte)
Apuntes de Física: Teorías y leyes (2ª parte)
Apuntes de Física: Teorías y leyes (3ª parte)
Apuntes de Física: Teorías y leyes (4ª parte)
Apuntes de Física: Teorías y leyes (6ª parte)
Apuntes de Física: Teorías y leyes (7ª parte)
Apuntes de Física: Teorías y leyes (8ª parte)

Otros apuntes en Diario de un explorador:

Apuntes de Física: Los orígenes del Universo (1ª parte)

Esclareciendo la materia oscura

Me ha parecido interesante esta noticia del diario elpaís.com: Un balón de materia oscura rodea la Vía Láctea. Según parece, las irregularidades de este halo de materia invisible y su orientación obliga a los científicos a replantear su teoría acerca de la formación de nuestra galaxia.

Además, entre las publicaciones de hoy, se encuentra otro curioso titular: Un eclipse estelar cada 27 años.

El viejo mundo

Apuntes de Física: Teorías y leyes (4ª parte)

La formación de imágenes mediante los fenómenos de reflexión y refracción (vistos en la anterior partes de estos mismos apuntes de física sobre teorías y leyes), suponen la materia de estudio de la óptica geométrica. Tanto la óptica por reflexión como la óptica por refracción pueden ser considerada en sus bases a partir de modelos de imágenes en espejos planos y esféricos (cóncavos o convexos), o a través de lentes delgadas de diferentes formas, respectivamente. En estos modelos, la superficies curvas pueden considerarse esféricas tanto para espejos como para lentes a efectos prácticos.

El estudio de la óptica geométrica se encuentra sostenida por algunas leyes importantes; la ley de propagación rectilínea de la luz, establecida desde la Antigüedad, es perfectamente observable en la experiencia; la ley de independencia de los rayos luminosos establece que la acción de cada rayo es independiente de la de los demás, sin guardar relación con el hecho de que las demás actúen o no simultáneamente; la ley de reciprocidad, según la cual la trayectoria de un rayo que, partiendo de un punto F, se reflejara o refractara en un punto O de la superficie para llegar a P sería igual si se diera a la inversa, y las leyes de refracción y reflexión. El estudio de esta última permite entender el modo en que se ven las imágenes en los espejos. En el espejo plano, un foco emisor de luz reflejado genera para el observador externo una imagen secundaria denominada foco virtual. Ese foco virtual, al igual que el reflejo de cualquier otro objeto, es siempre simétrico. De acuerdo con esto, la representación de una imagen reflejada en un espejo plano puede conseguirse prolongando líneas perpendiculares a los puntos de la superficie que definen la imagen hacia el interior del reflejo. Por ejemplo, una mano izquierda reflejada aparecerá para el observador siempre como una mano derecha. Esta propiedad de la imagen del espejo plano se denomina inversión lateral. Además, esta imagen es virtual y del mismo tamaño que el objeto. El caso de los espejos esféricos resulta diferente debido a sus características particulares; su forma hace converger en un solo punto los rayos reflejados, lo que los convierte en superficies ideales para la obtención de una imagen nítida y luminosa de los objetos lejanos. A estos cuerpos capaces de hacer converger los rayos de luz en un punto se les denomina espejos paraboloides. A pesar de todo, la construcción de un espejo paraboloide resulta muy difícil, por lo que, en su lugar, se utilizan espejos esféricos, cuya fabricación resulta mucho más sencilla; la contrapartida de esta sustitución es que, en el espejo esférico, no todos los rayos convergen en un mismo punto (aberración esférica), sino que solo lo hacen aquellos rayos próximos al eje óptico, es decir, el eje que une al objeto reflejado con el centro de la curvatura de la lente y al centro del propio espejo. Estos rayos se denominan rayos paraxiales. En las formulaciones relativas a la localización del punto de convergencia de los rayos paraxiales, es posible tener en cuenta también las dimensiones del objeto reflejado para obtener con ello un esquema gráfico denominado diagrama de rayos, con el que es posible averiguar el resultado específico del reflejo. De acuerdo con el diagrama de rayos, para un espejo esférico cóncavo, la imagen es real, invertida y disminuida si la distancia a la que se encuentra un observador (reflejado) es mayor que el radio de curvatura (distancia entre el centro de curvatura y el vértice); es real, invertida y mayor pero todavía disminuida si el observador se acerca al centro de curvatura; es real, invertida y de tamaño natural cuando el observador se sitúa en el centro de curvatura; es real, invertida y aumentada si el observador sobrepasa el centro de curvatura; y, finalmente, es virtual (la imagen se forma detrás del espejo), derecha y aumentada si el observador se sitúa más allá del foco, es decir, el punto donde se forma la imagen. Para un espejo convexo, la imagen es siempre virtual, derecha y disminuida.

La óptica por refracción supone el estudio de la formación de imágenes vistas a través de superficies refractoras; en todo caso, una superficie refractora desviará los rayos de luz provenientes de un medio con un índice de refracción determiando, dando como resultado un efecto visual en concreto. Si consideramos un objeto luminoso situado en un medio de índice de refración determinado frente a una superficie refractora convexa, veremos como los rayos luminosos son desviados al entrar en contacto con la superficie, dirigiéndose hacia la normal en el caso de que el índice de refracción del nuevo medio sea mayor que el anterior. En un caso así, es posible relacionar la distancia a la que se forma la imagen con la distancia a la que se encuentra el objeto, y con las características de la superficie, así como con los índices de refracción de los medios gracias a la ecuación del dioptrio esférico, también conocida como aproximación gaussiana. Esta ecuación es también válida para la formación de imágenes por refracción en otras condiciones, siempre que se modifiquen convenientemente sus signos. En los problemas de óptica de refracción suelen definirse dos tipos de distancias focales; si el objeto está a una distancia muy lejana, los rayos incidentes pueden considerarse paralelos. El punto en el que convergen los rayos refractados se denomina foco imagen, y su distancia respecto al vértice de la superficie esférica refractante se conoce como distancia focal imagen. De la misma manera, puede establecerse un foco objeto, es decir, un punto desde el que deberían partir los rayos incidentes para que los rayos refractados salieran paralelos. La distancia de este foco respecto al vértice se denomina distancia focal objeto. Por otra parte, las imágenes formadas por refracción en superficies planas son siempre virtuales y se forman del lado del objeto (lado de incidencia).

Una de las aplicaciones prácticas más interesantes de la ecuación del dioptrio esférico es la fabricación de lentes para determinados usos (objetivos, prismáticos, lupas, etc). En esencia, una lente es un sistema óptico formado por dos o más superficies refractoras, de las que al menos una está curvada. Cuando las superficies refractoras son dos, la lente se denomina lente simple. Si además su grosor es depreciable en relación a las distancias del objeto, la imagen y el radio de la superficie esférica respecto del vértice, recibe el nombre de lente delgada. Dentro del grupo de lentes delgadas, existen además dos clases diferenciadas; la lentes convexas o convergentes, son más gruesas en su parte central y hacen converger los rayos que las atraviesan (siempre que el índice de refracción de la lente sea mayor que el del medio que la rodea); las lentes cóncavas o divergentes, son más delgadas en su parte central, lo que provoca la divergencia de los rayos que las atraviesan (en idénticas condiciones que las convergentes). Además, dependiendo de la forma de las dos superficies que la conforman, esta clasificación puede subdividirse en: lente biconvexa, lente plano-convexa, lente menisco-convexa, lente bicóncava, lente plano-cóncava y lente menisco-cóncava. La ecuación por la que se determina la distancia de la imagen respecto del vértice en función de la del objeto, del índice de refracción de la lente y de sus características constructivas se denomina ecuación del fabricante de lentes o fórmula de las lentes delgadas. También es posible una formulación de esta en función de la distancia focal, lo que se conoce como fórmula gaussiana de las lentes delgadas. Al igual que en el caso de los espejos esféricos, es posible determinar cómo y dónde se forma la imagen de un objeto en una lente delgada a partir de su distancia focal, así como de la posición y tamaño del objeto. Otro procedimiento complementario para ello es el método del diagrama de rayos. En el caso de las lentes biconvexas, por ejemplo, cuando la posición del objeto se encuentra entre el infinito y dos veces la distancia focal, la imagen se formará entre esta última y el foco, y será siempre real, invertida y disminuida. Si la posición del objeto es igual a dos veces la distancia focal, la imagen se formará también a una distancia de dos veces la focal, siendo entonces real, invertida y de tamaño natural. Si la posición del objeto se encuentra entre la distancia focal y dos veces esta, la imagen será real, invertida y aumentada, y se formará entre el infinito y dos veces la distancia focal. Si la posición del objeto es igual a la distancia focal, la imagen se forma en el infinito como un gran borrón. Cuando la posición del objeto es menor que la focal, la lente actúa como una lupa, produciendo una imagen virtual, derecha y aumentada. En una lente divergente es siempre virtual, derecha y disminuida.

Algunos instrumentos ópticos diseñados bajo los principios de la óptica geométrica son la lupa o lente de aumento, el microscopio simple, el microscopio compuesto, el telescopio refractor, el telescopio reflector (o newtoniano) y el telescopio catadióptrico.

Ver también:
Fisicanet – Óptica

Entradas relacionadas:

Apuntes de Física: Teorías y leyes (1ª parte)
Apuntes de Física: Teorías y leyes (2ª parte)
Apuntes de Física: Teorías y leyes (3ª parte)
Apuntes de Física: Teorías y leyes (5ª parte)
Apuntes de Física: Teorías y leyes (6ª parte)
Apuntes de Física: Teorías y leyes (7ª parte)
Apuntes de Física: Teorías y leyes (8ª parte)

Otros apuntes en Diario de un explorador:

Apuntes de Física: Los orígenes del Universo (1ª parte)