96
INTRODUCCION La física es una ciencia fundamental que tiene una profunda influencia en todas las otras ciencias. Por consiguiente, no sólo los estudiantes de física e ingeniería, sino todo aquel que piense seguir una carrera científica (biología, química y matemática) debe tener una completa comprensión de sus ideas fundamentales. La palabra física viene del término griego que significa naturaleza, y por ello la física debía ser una ciencia dedicada al estudio de todos los fenómenos naturales. La física es una ciencia muy compleja y desarrollada, pero a la vez muy simple, puesto que trata de las características más simples y fundamentales que son comunes a cualquier proceso, sistema, fenómeno, etc. Es la ciencia más general, puesto que sus principios son independientes de la naturaleza particular del objeto de estudio, y son válidos para cualquier fenómeno que se produzca en la naturaleza. La simplicidad de la física reside en que sus principios fundamentales son únicamente dos. Efectivamente, todo lo que enseña la física acerca de la naturaleza puede resumirse en dos afirmaciones. Ahora bien, tales afirmaciones o principios distan mucho de ser obvios, y su comprensión requiere un importante esfuerzo y preparación conceptual. Por ejemplo, para su correcta comprensión es necesaria una preparación matemática que permita el manejo de diversos conceptos matemáticos, tales como fuerza, trabajo, energía, etc. Decimos esto porque a menudo se tiene la impresión de que la física afirma muchas y complejas cosas, y uno difícilmente llega a comprender la verdadera enseñanza de la física. La física se estructura en diversas ramas o subdisciplinas. Desde un punto de vista estrictamente teórico, Por tanto bajo este enfoque observaras que la física se divide en dos áreas teóricas: la mecánica y la termodinámica. Además sus disciplinas tienen ya un carácter aplicado, como por ejemplo, la dinámica de fluidos, el electromagnetismo, la electrónica, la acústica, la física molecular, atómica y nuclear, la óptica, la química física, la física del estado sólido, etc. Todas

INTRODUCCION física naturaleza - cbta185.comcbta185.com/antologias/6 SEMESTRE/Sexto Semestre Fisica.pdf · INTRODUCCION La física es una ciencia fundamental que tiene una profunda

  • Upload
    vannga

  • View
    217

  • Download
    1

Embed Size (px)

Citation preview

INTRODUCCION

La física es una ciencia fundamental que tiene una profunda influencia en todas

las otras ciencias. Por consiguiente, no sólo los estudiantes de física e ingeniería,

sino todo aquel que piense seguir una carrera científica (biología, química y

matemática) debe tener una completa comprensión de sus ideas fundamentales.

La palabra física viene del término griego que significa naturaleza, y por ello la

física debía ser una ciencia dedicada al estudio de todos los fenómenos naturales.

La física es una ciencia muy compleja y desarrollada, pero a la vez muy simple,

puesto que trata de las características más simples y fundamentales que son

comunes a cualquier proceso, sistema, fenómeno, etc. Es la ciencia más general,

puesto que sus principios son independientes de la naturaleza particular del objeto

de estudio, y son válidos para cualquier fenómeno que se produzca en la

naturaleza.

La simplicidad de la física reside en que sus principios fundamentales son

únicamente dos. Efectivamente, todo lo que enseña la física acerca de la

naturaleza puede resumirse en dos afirmaciones. Ahora bien, tales afirmaciones o

principios distan mucho de ser obvios, y su comprensión requiere un importante

esfuerzo y preparación conceptual. Por ejemplo, para su correcta comprensión es

necesaria una preparación matemática que permita el manejo de diversos

conceptos matemáticos, tales como fuerza, trabajo, energía, etc. Decimos esto

porque a menudo se tiene la impresión de que la física afirma muchas y complejas

cosas, y uno difícilmente llega a comprender la verdadera enseñanza de la física.

La física se estructura en diversas ramas o subdisciplinas. Desde un punto de

vista estrictamente teórico, Por tanto bajo este enfoque observaras que la física se

divide en dos áreas teóricas: la mecánica y la termodinámica. Además sus

disciplinas tienen ya un carácter aplicado, como por ejemplo, la dinámica de

fluidos, el electromagnetismo, la electrónica, la acústica, la física molecular,

atómica y nuclear, la óptica, la química física, la física del estado sólido, etc. Todas

ellas se fundamentan en la mecánica (clásica y cuántica) y la termodinámica.

Estos temas incluyen a dos grandes grupos de la física la clásica y la moderna

I. MECÁNICA.

Rama de la física que se ocupa del movimiento de los objetos y de su respuesta a

las fuerzas. Las descripciones modernas del movimiento comienzan con una

definición cuidadosa de magnitudes como el desplazamiento, el tiempo, la

velocidad, la aceleración, la masa y la fuerza.

Sin embargo, hasta hace unos 400 años el movimiento se explicaba desde un

punto de vista muy distinto. Por ejemplo, los científicos razonaban —siguiendo las

ideas del filósofo y científico griego Aristóteles— que una bala de cañón cae

porque su posición natural está en el suelo; el Sol, la Luna y las estrellas

describen círculos alrededor de la Tierra porque los cuerpos celestes se mueven

por naturaleza en círculos perfectos.

El físico y astrónomo italiano Galileo reunió las ideas de otros grandes pensadores

de su tiempo y empezó a analizar el movimiento a partir de la distancia recorrida

desde un punto de partida y del tiempo transcurrido. Demostró que la velocidad de

los objetos que caen aumenta continuamente durante su caída. Esta aceleración

es la misma para objetos pesados o ligeros, siempre que no se tenga en cuenta la

resistencia del aire (rozamiento). El matemático y físico británico Isaac Newton

mejoró este análisis al definir la fuerza y la masa, y relacionarlas con la

aceleración. Para los objetos que se desplazan a velocidades próximas a la

velocidad de la luz, las leyes de Newton han sido sustituidas por la teoría de la

relatividad de Albert Einstein. Para las partículas atómicas y subatómicas, las

leyes de Newton han sido sustituidas por la teoría cuántica. Pero para los

fenómenos de la vida diaria, las tres leyes del movimiento de Newton siguen

siendo la piedra angular de la dinámica (el estudio de las causas del cambio en el

movimiento).

1.1. SISTEMA BIDIMENSIONAL

1.1.1. TIRO PARABÓLICO

En este programa, se estudia un caso particular de movimiento curvilíneo, el tiro

parabólico, que es la composición de dos movimientos:

Uniforme a lo largo del eje X.

Uniformemente acelerado a lo largo del eje vertical Y.

Para resolver un problema de tiro parabólico es necesario seguir los siguientes

pasos

1.-Establecer el sistema de referencia, es decir, el origen y los ejes horizontal X, y

vertical Y

2.-Determinar el valor y el signo de la aceleración vertical

3.-Las componentes de la velocidad inicial (incluido el signo)

4.-La posición inicial

5.-Escribir las ecuaciones del movimiento

6.-A partir de los datos, hallar las incógnitas

1.1.1 Interpretación grafica del tiro parabólico

Las ecuaciones del movimiento de un proyectil bajo la aceleración constante de la

gravedad son:

Eliminado el tiempo en las ecuaciones que nos dan las posiciones x e y,

obtenemos la ecuación de la trayectoria, que tiene la forma y=ax2 +bx +c, lo que

representa una parábola. Obtenemos la altura máxima, cuando la componente

vertical de la velocidad vy es cero; el alcance horizontal x cuando el cuerpo retorna

al suelo y=0.

Las ecuaciones del movimiento de un proyectil bajo la aceleración constante de la

gravedad son:

Eliminado el tiempo en las ecuaciones que nos dan las posiciones x e y,

obtenemos la ecuación de la trayectoria, que tiene la forma y=ax2 +bx +c, lo que

representa una parábola.

Obtenemos la altura máxima, cuando la componente vertical de la velocidad vy es

En la figura tenemos un proyectil que

se ha disparado con una velocidad

inicial v0, haciendo un ángulo con

la horizontal, las componentes de la

velocidad inicial son

Como el tiro parabólico es la

composición de dos movimientos:

movimiento rectilíneo y

uniforme a lo largo del eje X

uniformemente acelerado a lo

largo del eje Y

cero; el alcance horizontal x cuando el cuerpo retorna al suelo y=0.

1.1.3. MOVIMIENTO CIRCULAR

Se define movimiento circular como aquél cuya trayectoria es una circunferencia.

Una vez situado el origen O de ángulos describimos el movimiento circular

mediante las siguientes magnitudes.

Posición angular,

En el instante t el móvil se encuentra en el punto

P. Su posición angular viene dada por el ángulo ,

que hace el punto P, el centro de la circunferencia

C y el origen de ángulos O.

El ángulo , es el cociente entre la longitud del

arco s y el radio de la circunferencia r, =s/r. La

posición angular es el cociente entre dos

longitudes y por tanto, no tiene dimensiones.

En la figura tenemos un proyectil que se ha

disparado con una velocidad inicial v0,

haciendo un ángulo con la horizontal,

las componentes de la velocidad inicial son

Como el tiro parabólico es la composición

de dos movimientos:

movimiento rectilíneo y uniforme a lo

largo del eje X

uniformemente acelerado a lo largo

1.1.4. VELOCIDAD ANGULAR

En el instante t' el móvil se encontrará en la

posición P' dada por el ángulo '. El móvil se

habrá desplazado = ' - en el intervalo de

tiempo t=t'-t comprendido entre t y t'.

Se denomina velocidad angular media al cociente entre el desplazamiento y el

tiempo.

Como ya se explicó en el movimiento rectilíneo, la velocidad angular en un

instante se obtiene calculando la velocidad angular media en un intervalo de

tiempo que tiende a cero.

1.1.4. Aceleración angular

del eje Y

Si en el instante t la velocidad angular del móvil es

y en el instante t' la velocidad angular del móvil

es '. La velocidad angular del móvil ha cambiado

= ' - en el intervalo de tiempo t=t'-t

comprendido entre t y t'.

Se denomina aceleración angular media al cociente entre el cambio de velocidad

angular y el intervalo de tiempo que tarda en efectuar dicho cambio.

La aceleración angular en un instante, se obtiene calculando la aceleración

angular media en un intervalo de tiempo que tiende a cero.

Dada la velocidad angular, hallar el desplazamiento angular

Si conocemos un registro de la velocidad angular del móvil podemos calcular su

desplazamiento - 0 entre los instantes t0 y t, mediante la integral definida.

El producto dt representa el desplazamiento angular del móvil entre los

instantes t y t+dt, o en el intervalo dt. El desplazamiento total es la suma de los

infinitos desplazamientos angulares infinitesimales entre los instantes t0 y t.

En la figura, se muestra una gráfica de la velocidad angular en función del tiempo,

el área en color azul mide el desplazamiento angular total del móvil entre los

instantes t0 y t, el arco en color azul marcado en la circunferencia.

Hallamos la posición angular del móvil en el instante t, sumando la posición

inicial 0 al desplazamiento, calculado mediante la medida del área bajo la curva

-t o mediante cálculo de la integral definida en la fórmula anterior.

Dada la aceleración angular, hallar el cambio de velocidad angular

Del mismo modo que hemos calculado el desplazamiento angular del móvil entre

los instantes t0 y t, a partir de un registro de la velocidad angular en función del

tiempo t, podemos calcular el cambio de velocidad - 0 que experimenta el móvil

entre dichos instantes, a partir de una gráfica de la aceleración angular en función

del tiempo.

En la figura, el cambio de velocidad - 0 es el

área bajo la curva - t, o el valor numérico de la

integral definida en la fórmula anterior.

Conociendo el cambio de velocidad angular - 0,

y el valor inicial 0 en el instante inicial t0,

podemos calcular la velocidad angular en el

instante t.

Resumiendo, las fórmulas empleadas para resolver problemas de movimiento

circular son similares a las del movimiento rectilíneo.

1.2. Movimiento circular uniforme

Un movimiento circular uniforme es aquél cuya

velocidad angular es constante, por tanto, la

aceleración angular es cero. La posición

angular del móvil en el instante t lo podemos

calcular integrando

- 0= (t-t0)

o gráficamente, en la representación de en

función de t.

Habitualmente, el instante inicial t0 se toma como cero. Las ecuaciones del

movimiento circular uniforme son análogas a las del movimiento rectilíneo

uniforme

Movimiento circular uniformemente acelerado

Un movimiento circular uniformemente

acelerado es aquél cuya aceleración es

constante.

Dada la aceleración angular podemos obtener

el cambio de velocidad angular - 0 entre los

instantes t0 y t, mediante integración, o

gráficamente.

Dada la velocidad angular en función del

tiempo, obtenemos el desplazamiento - 0

del móvil entre los instantes t0 y t, gráficamente

(área de un rectángulo + área de un triángulo),

o integrando

Habitualmente, el instante inicial t0 se toma como cero. Las fórmulas del

movimiento circular uniformemente acelerado son análogas a las del movimiento

rectilíneo uniformemente acelerado.

Despejando el tiempo t en la segunda ecuación y sustituyéndola en la tercera,

relacionamos la velocidad angular ù con el desplazamiento è-è0

1.2 SISTEMA TRIDIMENSIONAL

1.2.1 CONDICIONES DE EQUILIBRIO.

El equilibrio mecánico es una situación estacionaria en la que la se cumplen una

de estas dos condiciones:

(1) Un sistema está en equilibrio mecánico cuando la suma de fuerzas y

momentos, sobre cada partícula del sistema es cero.

(2) Un sistema está en equilibrio mecánico si su posición en el espacio de

configuración es un punto en el que el gradiente de energía potencial es cero.

La alternativa (2) de definición equilibrio que es más general y útil (especialmente

en mecánica de medios continuos).

Definición basada en equilibrio de fuerzas

Como consecuencia de las leyes de la mecánica, una partícula en equilibrio no

sufre aceleración lineal ni de rotación, pero puede estar moviéndose a velocidad

uniforme o rotar a velocidad angular uniforme. Esto es ampliable a un sólido rígido.

Las ecuaciones necesarias y suficientes de equilibrio mecánico son:

Una partícula o un sólido rígido esta en equilibrio de traslación cuando: la suma de

todas las fuerzas que actúan sobre el cuerpo es cero.

En el espacio, tiene tres ecuaciones de fuerzas, una por dimensión;

Descomponiendo cada fuerza en sus coordenadas tenemos:

Y como un vector es cero, cuando cada una de sus componentes es cero,

tenemos:

1.

2.

3.

Un solidó rígido esta en equilibrio de traslación cuando la suma, de las

componentes, de las fuerzas que actúan sobre él es cero.

Un sólido rígido esta en equilibrio de rotación, si la suma de momentos sobre el

cuerpo es cero.

En el espacio tiene las tres ecuaciones una por dimensión; por un razonamiento

similar al de las fuerzas:

Resultando:

1.

2.

3.

Un sólido rígido está en equilibrio de rotación cuando la suma de las componentes

de los momentos que actúan sobre él es cero

Un sólido rígido está en equilibrio si está en equilibrio de traslación y de rotación.

Se distingue un tipo particular de equilibrio mecánico llamado equilibrio estático

que correspondería a una situación en que el cuerpo está en reposo, con

velocidad cero: una hoja de papel sobre un escritorio estará en equibrio mecánico

y estático, un paracaidista cayendo a velocidad constante, dada por la velocidad

límite estaría en equilibrio mecánico pero no estático.

Definición basada en la energía potencial

La definición (1) del principio de este artículo es de poca utilidad en mecánica de

medios continuos, puesto que esa definición no es fácilmente generalizable a un

medio continuo. Además dicha definición no proporciona información sobre uno de

los aspectos más importantes del estado de equilibrio, la estabilidad. Para este

tipo de sistemas lo más cómodi es usar la definición (2). Debido a la relación

fundamental entre fuerza y energía, esta definición es equivalente a la primera

definición (1). Además esta segunda definición puede extenderse fácilmente para

definir el equilibrio estable. Si la función de energía potencial es diferenciable,

entonces los puntos de equilibrio coincidirán con los puntos donde ocurra un

máximo o un mínimo locales de la energía potencial.

Estabilidad del equilibrio

El análisis de la estabilidad del equilibrio puede llevarse a cabo estudiando los mínimos y

máximos locales (extremos locales) de la función de energía potencial.

Un resultado elemental del análisis matemático dice una condición necesaria para

la existencia de un extremo local de una función diferenciable es que todas las

derviadas primeras se anulen en algún punto. Para determinar problemas

unidimensionales, comprobar si un punto de equilibrio es estable, inestable o

indiferente implica verificar las derivadas segundas de la energía potencial:

Un punto es de equilibrio inestable, si la segunda derivada de la energía potencial

< 0 y por tanto la energía potencial tiene un máximo local. Si el sistema se sufre

una desplazamiento ni que sea pequeño de su posición de equilibrio entonces se

alejará más y más de él (de ahí el nombre inestabilidad para esa situación).

Un punto es de equilibrio indiferente o neutral, si la segunda derivada = 0,

entonces encontramos una región donde la energía no varía. Así si el sistema es

desplazado de la posición de equilibrio una cantidad suficientemente pequeña,

posiblemente no volverá a acercarse al equilibrio pero tampoco divergerá mucho

de la posición anterior de equilibrio.

Un punto es dequilibrio estable si la segunda derivada > 0 y por tanto la energía

potencial tiene un mínimo local. La respuesta del sistema frente a pequeñas

perturbaciones o un alejamiento arbitrariamente pequeño de del punto de

equilibrio es volver u oscilar alrededor del punto de equilibrio. Si existe más de un

punto de equilibrio estable para un sistema, entonces se dice que cualquiera de

ellos cuya energía potencia es mayor que el mínimo absoluto representa un

estado metaestable.

Para problemas bidimensionales y tridimensionales (o más generalmente n-

dimensionales) la discusión anterior de la estabilidad se hace más complicada y

requiere examinar la forma cuadrática Q(x1,...,xn) definida por la matriz hessiana

de la energía potencial:

Equilibrio estable, se da cuando la forma cuadrática Q(x1,...,xn) es definida

positiva y, por tanto, todos sus autovalores son números positivos.

Equilibrio totalmente inestable, se da cuando la forma cuadrática Q(x1,...,xn) es

definida negativa, por tanto, todos sus autovalores son negativos.

Equilibrio mixto inestable, se da cuando la forma cuadrática Q(x1,...,xn) es no es

definida positiva y alguno de sus autovalores es negativo. Esto implica que según

ciertas direcciones puede haber estabilidad unidimensional pero según otras habrá

inestabilidad unidimensional

1.2.2 MOMENTO DE FUERZA

En mecánica newtoniana, se denomina momento de fuerza, momentum, torque,

par (o sencillamente momento) [respecto a un punto fijado B] a la magnitud que

viene dada por el producto vectorial de una fuerza por un vector director. Más

concretamente si llamamos F a una fuerza, aplicada en un punto A, su momento

respecto a otro punto B viene dado por:

Donde el vector director que va desde A a B. Por la propia definición del

producto vectorial, el momento es un vector perpendicular al plano formado por

y .

Se expresa en unidades de fuerza por unidades de distancia. En el Sistema

Internacional de Unidades resulta Newton·metro.

Interpretación del momento

El momento de una fuerza con respecto a un punto da a conocer en que medida

existe tendencia en una fuerza o desequilibrio de fuerzas que pueda causar la

rotación de un cuerpo con respecto a éste.

Momento de una fuerza

Supongamos que tenemos tres llaves que actúan sobre tres tornillos en la forma

indicada por las figuras. Se aplica una fuerza F en el extremo de la llave. Es fácil

contestar a las siguientes preguntas:

¿En qué situaciones se enrosca el tornillo?

¿En que situaciones se desenrosca el tornillo?

¿Cuáles producen el mismo resultado o son equivalentes?.

En la primera figura, el tornillo avanza

en una dirección perpendicular al plano

de la página, y hacia el lector. El

módulo del momento es F·d.

En la segunda figura, el tornillo avanza

en la misma dirección y sentido. El

módulo del momento es F/2·(2d)=F·d.

Con una llave más larga estamos en

una situación más favorable que con

una llave más corta.

En la tercera figura, el tornillo avanza

en la misma dirección pero en sentido

contrario.

Un momento se considera positivo, si el tornillo sale, avanza hacia el lector, la

llave gira en sentido contrario al movimiento de las agujas del reloj.

Un momento se considera negativo, si el tornillo entra, la llave gira en el sentido

del movimiento de las agujas del reloj.

Se denomina momento de una fuerza respecto de un punto, al producto vectorial

del vector posición r de la fuerza por el vector fuerza F.

M=r F

El vector M tiene

Por módulo, M=F·r·senè=F·d. Siendo d el brazo de la fuerza (la distancia

desde el punto O a la dirección de la fuerza)

Dirección, perpendicular al plano determinado por la fuerza F y el punto O.

Sentido, la aplicación de la regla del sacacorchos

La analogía de la llave y el tornillo, nos ayuda a entender el significado físico de la

magnitud momento, y a determinar correctamente el módulo, la dirección y el

sentido del momento de una fuerza:

El módulo es el producto de la fuerza F por

la longitud d de la llave. M=F·r·senè=F·d

La dirección, es la del eje del tornillo, eje Z

El sentido viene determinado por el avance

del tornillo (hacia dentro, negativo) cuando

hacemos girar a la llave.

Varilla que pende de dos muelles

La varilla delgada de masa m kg y longitud L pende de dos muelles elásticos

verticales de constantes k1 y k2 y de longitudes l01 y l02 sin deformar, situados a

una distancia d1 y d2 a uno y otro lado del c.m de la varilla

La fuerza que ejerce el muelle situado a la izquierda del c.m. es F1=k1x1,

donde x1 es la deformación del muelle

La fuerza que ejerce el muelle situado a la derecha del c.m. es F2=k2x2,

donde x2 es la deformación del muelle

Cuando la varilla está en equilibrio en posición horizontal. La resultante de las

fuerzas sobre la varilla debe ser cero y el momento resultante respecto del c.m.

debe ser cero.

k1x1+ k2x2=mg

-k1x1·d1+ k2x2·d2=0

Despejamos x1 y x2

El muelle de la izquierda se ha de colgar de un punto situado a l1=l01+x1 por

encima de la varilla horizontal

El muelle de la derecha se ha de colgar de un punto situado a l2=l02+x2 por

encima de la varilla horizontal

Ejemplo:

Constantes elásticas de los muelles: k1=50 N/m, k2=25 N/m

Masa de la barra, m=1 kg

Longitud de los muelles sin deformar, l01=l02=0.5 m

Cuando d1=75 cm, d2=90 cm, las deformaciones son

El muelle de la izquierda se ha de colgar de un punto situado a

l1=50+10.7=60.7 cm por encima de la varilla horizontal

El muelle de la derecha se ha de colgar de un punto situado a

l2=50+17.8=67.8 cm por encima de la varilla horizontal

1.2.3 CENTRO DE MASA

El centro de masas de un sistema discreto es el punto geométrico que

dinámicamente se comporta como si estuviese sometido a la resultante de las

fuerzas externas al sistema. De manera análoga. Normalmente se abrevia como

CM.

En física, el centroide, el centro de gravedad y el centro de masas pueden, bajo

ciertas circunstancias, coincidir entre sí. En estos casos se suele utilizar los

términos de manera intercambiable, aunque designan conceptos diferentes. El

centroide es un concepto puramente geométrico mientras que los otros dos

términos se relacionan con las propiedades físicas de un cuerpo. Para que el

centroide coincida con el centro de masa, el objeto debe tener densidad uniforme,

o la distribución de materia a través del objeto debe tener ciertas propiedades,

tales como simetría. Para que un centroide coincida con el centro de gravedad, el

centroide debe coincidir con el centro de masa y el objeto debe estar bajo la

influencia de un campo gravitatorio uniforme.

En un tratamiento de sistemas de masas puntuales el centro de masas es el

punto donde se supone concentrada toda la masa del sistema. El concepto se

utiliza para análisis físicos en los cuales no es importante considerar la distribución

de masa. Por ejemplo, en las órbitas de los planetas.

Un isobaricentro (iso: mismo) es un baricentro con todas las masas iguales entre

sí; es usual en tal caso tomarlas iguales a 1. Si no se precisan las masas, el

baricentro es por defecto el isobaricentro.

El baricentro coincide con la noción física de centro de gravedad, también

llamado centro de masa, en algunos casos como:

El baricentro de {A, es el centro de masa del segmento [A;B], o sea de una barra

de extremos A y B, de masa uniformemente distribuida.

El baricentro de {A, B, es el centro de gravedad del triángulo ABC, suponiéndole

una densidad superficial uniforme (por ejemplo, al recortar un triángulo en una

hoja de cartón). Corresponde al punto donde se cortan las medianas. El triángulo

de cartón se mantendrá en equilibro (inestable) en la punta de un lápiz o de un

compás si éste está colocado justo debajo del centro de masa. El baricentro de un

triángulo tiene además la propiedad de pertenecer a la recta de Euler.

El baricentro de cuatro puntos {A, B, C, D} del espacio es el centro de gravedad

del tetraedro, suponiéndole una densidad volúmica uniforme. Corresponde al

punto donde se cortan los segmentos que unen cada vértice con el isobaricentro

de la cara opuesta.

Se puede generalizar lo anterior en cualquier dimensión.

La coincidencia del baricentro y el centro de gravedad permite localizar el primero

de una forma sencilla. Si tomamos el pedazo de cartón antes comentado y lo

sujetamos verticalmente desde cualquiera de sus puntos, girará hasta que el

centro de gravedad (baricentro) se sitúe justamente en la vertical del punto de

sujeción; marcando dicha vertical sobre el cartón y repitiendo el proceso sujetando

desde un segundo punto, encontraremos el baricentro en el punto de intersección.

1.2.4 CENTRO DE GRAVEDAD

El centro de gravedad (C.G. o también, bajo ciertas circunstancias, llamado

centro de masas) es el punto de aplicación de la resultante de todas las fuerzas de

gravedad que actuán sobre las distintas masas materiales de un cuerpo.

En física, el centroide, el centro de gravedad y el centro de masas pueden, bajo

ciertas circunstancias, coincidir entre sí. En éstos casos es válido utilizar estos

términos de manera intercambiable.

El centroide es un concepto puramente geométrico, mientras que los otros dos

términos se relacionan con las propiedades físicas de un cuerpo. Para que el

centroide coincida con el centro de masas, el objeto tiene que tener densidad

uniforme, o la distribución de materia a través del objeto debe tener ciertas

propiedades, tales como simetría.

Para que un centroide coincida con el centro de gravedad, el centroide debe

coincidir con el centro de masas y el objeto debe estar bajo la influencia de un

campo gravitatorio uniforme.

En geometría, el centroide o baricentro de un objeto X perteneciente a un

espacio n-dimensional es la intersección de todos los hiperplanos que dividen a X

en dos partes de igual n-volumen con respecto al hiperplano. Informalmente, es el

promedio de todos los puntos de X.

En física, el centroide puede, bajo ciertas circunstancias, coincidir con el centro de

masas del objeto y además con el centro de gravedad. En algunos casos, esto

hace utilizar estos términos de manera intercambiable. Para que el centroide

coincida con el centro de masa, el objeto tiene que tener densidad uniforme, o la

distribución de materia a través del objeto debe tener ciertas propiedades, tales

como simetría. Para que un centroide coincida con el centro de gravedad, el

centroide debe coincidir con el centro de masa y el objeto debe estar bajo la

influencia de un campo gravitatorio uniforme.

Una figura cóncava tendrá su centroide en algún punto fuera de la figura misma. El

centroide de una lámina con forma de luna creciente estará en algún lugar del

espacio vacío central.

El centroide de un triángulo (también llamado baricentro) se encuentre en el punto

donde se intersectan sus medianas (líneas que unen un vértice con el punto medio

del lado opuesto). Este punto es además el centro de masa del triángulo si éste

está hecho de una lámina de material uniforme además de ser también su centro

de gravedad si éste es de proporciones humanas y no astrales o atómicas.

2. ONDAS

Imaginemos un estanque de agua quieta al que tiramos una piedra, pronto, pero

no instantáneamente, se formarán olas. Esas "olas" en realidad son ondas que se

propagan desde el centro donde la piedra, al caer, es la "fuente" de perturbaciones

circulares. Si llevamos este ejemplo a un parlante, este igual que la piedra,

perturba el medio propagándose y alejándose de su fuente. Así como las ondas

necesitaban al agua para poder difundirse, el sonido necesita del aire para lograr

lo mismo.

Al arrojar una roca aun recipiente con agua (H2O) observamos la propagación de

la onda de un lado a otro, por medio del agua, en ella se nota el movimiento

ondulatorio.

La onda consta de dos movimientos: uno es la vibración de las partículas y otro es

la propagación de la onda en sí. Si el movimiento de cada partícula es " de arriba

hacia abajo y viceversa" la onda se llama transversal.. Si la partícula se mueve en

la misma dirección de propagación moviéndose atrás y adelante, la onda recibe el

nombre de longitudinal.

El sonido es una onda longitudinal mientras que la luz y cualquier onda

electromagnética es transversales. Si hacemos ondas con una soga nos dará

ondas transversales mientras que un resorte puede transportar ambos tipos de

ondas.

Una onda es una perturbación periódica que se propaga en un medio o en el

espacio transportando energía. La propagación de una onda involucra el

desplazamiento elástico de partículas materiales o cambios periódicos en alguna

cantidad física como la presión, la temperatura o los cambios electromagnéticos.

Para descubrir una onda se considera: el valle, la cresta, el nodo, frecuencia,

longitud de onda, la amplitud y la velocidad de propagación.

Lo que afirma la ley de la conservación de la energía; “La energía ni se crea ni se

destruye simplemente se transforma”, la energía puede ser propagada a través del

espacio y de la materia por medio de vibraciones, por ejemplo el sonido, la luz, las

ondas de radio, esto se comprende estudiando como se forman, como se

comportan y como se propagan.

En física una onda es una oscilación que se propaga por el espacio a partir de un

medio, transportando energía pero no materia. Una onda es causada por algo que

oscila, es decir, que se mueve repetidamente de un lado a otro en torno a una

posición central o de equilibrio.

Las ondas son una perturbación periódica del medio en que se mueven. En las

ondas longitudinales, el medio se desplaza en la dirección de propagación. Por

ejemplo, el aire se comprime y expande (figura 1) en la misma dirección en que

avanza el sonido. En las ondas transversales, el medio se desplaza en ángulo

recto a la dirección de propagación. Por ejemplo, las ondas en un estanque

avanzan horizontalmente, pero el agua se desplaza verticalmente.

Los terremotos generan ondas de los dos tipos, que avanzan a distintas

velocidades y con distintas trayectorias. Estas diferencias permiten determinar el

epicentro del sismo. Las partículas atómicas y la luz pueden describirse mediante

ondas de probabilidad, que en ciertos aspectos se comportan como las ondas de

un estanque.

Propagación de las ondas

El mecanismo mediante el cual una onda mecánica monodimensional se propaga

a través de un medio material puede ser descrito inicialmente considerando el

caso de las ondas en un muelle. Cuando el muelle se comprime en un punto y a

continuación se deja en libertad, las fuerzas recuperadoras tienden a restituir la

porción contraída del muelle a la situación de equilibrio. Pero dado que las

distintas partes del muelle están unidas entre sí por fuerzas elásticas, la dilatación

de una parte llevará consigo la compresión de la siguiente y así sucesivamente

hasta que aquélla alcanza el extremo final.

En las ondas en la superficie de un lago, las fuerzas entre las moléculas de agua

mantienen la superficie libre como si fuera una película tensa. Tales fuerzas de

unión entre las partículas componentes son las responsables e que una

perturbación producida en un punto se propague al siguiente, repitiéndose el

proceso una y otra vez de forma progresiva en todas las direcciones de la

superficie del líquido, lo que se traduce en el movimiento de avance de ondas

circulares.

Como puede deducirse del mecanismo de propagación descrito, las propiedades

del medio influirán decisivamente en las características de las ondas. Así, la

velocidad de una onda dependerá de la rapidez con la que cada partícula del

medio sea capaz de transmitir la perturbación a su compañera. Los medios más

rígidos dan lugar a velocidades mayores que los más flexibles. En un muelle de

baja constante elástica k una onda se propagará más despacio que en otra que

tenga una k mayor. Lo mismo sucede con los medios más densos respecto de los

menos densos.

Ningún medio material es perfectamente elástico. Las partículas que lo forman en

mayor o menor grado rozan entre sí, de modo que parte de la energía que se

transmite de unas a otras se disipan en forma de calor. Esta pérdida de energía se

traduce, al igual que en el caso de las vibraciones, en una atenuación o

amortiguamiento. Sin embargo, el estudio de las ondas en las condiciones más

sencillas prescinde de estos efectos indeseables del rozamiento.

Características de las ondas

LONGITUD DE ONDA

Es la distancia entre una cresta y otra o valles consecutivos.

Parámetro físico que indica el tamaño de una onda. Si se representa la onda como

una serie de crestas regulares (una línea ondulada), la longitud de onda sería la

distancia entre dos crestas consecutivas. Se representa con la letra griega l

(lambda)

En espectroscopía, la longitud de onda es el parámetro usado para definir el tipo

de radiación electromagnética, y se mide usualmente en nanómetros. Una longitud

de onda corta indica que la radiación es muy energética, y viceversa. Por ejemplo,

la longitud de onda de la radiación ultravioleta de una lámpara de las usadas para

comprobar billetes es de 254 nanómetros, mientras que la longitud de onda de la

radiación infrarroja emitida por una bombilla es de unos 700 nanómetros.

Es la distancia entre dos puntos iguales correspondientes a dos ondas sucesivas.

La longitud de onda esta relacionada con la frecuencia V de la onda mediante la

formula:

Se expresa en unidades de longitud; metros, centímetros, kilómetros y las

longitudes de onda de la luz son de orden de millonésimas de metro (micrometros)

NODO

Es el punto donde la onda cruza la línea de equilibrio.

OSCILACIÓN

Se lleva a cabo cando un punto en vibración ha tomado todos los valores positivos

y negativos.

Son los puntos medios que están entre las crestas y los valles en la línea central

de los desplazamientos.

ELONGACIÓN

Es la distancia en forma perpendicular de un punto de la onda a la línea o posición

de equilibrio.

AMPLITUD

Es la distancia entre el punto extremo que alcanza una partícula vibrante y su

posición de equilibrio. La amplitud es la máxima elongación.

La amplitud de onda está directamente relacionada con la intensidad de la onda, la

amplitud es el ancho de onda, es decir, la distancia que separa a dos crestas o

dos valles sucesivos.

FRECUENCIA:

Es el numero de veces que se representa un fenómeno periódico en la unidad de

tiempo, es decir, el numero de ondas que pasan por segundo, la unidad en la que

se mide la frecuencia se llama hertz (hz) en honor a Heinrich Hertz, quien

demostró la existencia de las ondas de radio en 1886. Y se calcula como ciclos

entre segundos, es decir, el numero de veces por segundo que ocurre algún

fenómeno.

1 Hz = 1/s

Una vibración por segundo corresponde a una frecuencia de 1 hertz; dos

vibraciones por segundo equivalen a 2 hertz, y así sucesivamente. Las grandes

frecuencia se miden en kilohertz (kHz) y las frecuencias aún más elevadas en

megahetz (MHz). Las ondas de radio de amplitud modulada se transmiten en

kilohertz, mientras que las ondas de frecuencia modulada se transmiten en

megahertz.

Por ejemplo, una estación ubicada en la posición correspondiente a 960 kHz en la

banda de AM emite ondas de radio cuya frecuencia es de 960 000 vibraciones por

segundo. Una estación ubicada en la posición de 101 MHz de la banda de FM

emite ondas de radio cuya frecuencia es de 101 000 000 hertz. La frecuencia con

que vibra la fuente y la frecuencia de las ondas que produce son iguales.

PERIODO:

Tiempo que tarda un cuerpo que tiene un movimiento periódico –el cual el cuerpo

se mueve de un lado a otro, sobre una trayectoria fija-en efectuar un ciclo

completo de su movimiento. Su unidad, oscilación, onda, ciclo, vibración, segundo.

RELACIÓN ENTRE FRECUENCIA Y PERIODO

Por ejemplo, un centro emisor produce una onda en ½ segundo, o sea su periodo

es de T= ½ segundo y su frecuencia, f, será 2 ondas/segundo.

Lo que significa que f y T son reciprocas, es decir:

VELOCIDAD DE PROPAGACIÓN

Desplazamiento de una onda en una unidad de tiempo, es decir, habrá realizado

una oscilación completa cuando la onda se haya desplazado una longitud de

onda. Si el periodo (T) es el tiempo en que el punto considerado tarda en realizar

una oscilación, podemos decir que la onda ha avanzado una distancia ë en un

tiempo, es decir: V = ë / T, pero como el periodo T es igual a 1/f, la expresión

anterior también podemos expresarla de la siguiente manera: V = ëf.

Velocidad de propagación es igual al valor de la longitud de onda entre el periodo.

Sus unidades son, cm/s, m/s.

La velocidad con que se propague un fenómeno ondulatorio depende de la

naturaleza del medio en que se realiza la propagación. Así, la velocidad del sonido

no es la misma en el aire que en el agua o que en el acero, ni tampoco la

velocidad de la luz en la misma en el vació que en el agua, aire o vidrio. La

velocidad de la luz en el vació es igual a 300 000 km/s y es la máxima velocidad

que se puede alcanzar en la naturaleza.

Las ondas sonoras por ejemplo, viajan con rapidez de 330 o 350 m/s en el aire

(dependiendo la temperatura) y unas cuatro veces mas aprisa en el agua. Cual

sea el medio, la rapidez de una onda esta relacionada con su frecuencia y su

longitud de onda.

VALLE

La parte inferior de una onda

CRESTA

La parte superior de una onda

2.1 PROCESOS TERMODINÁMICOS

En termodinámica se designa como proceso adiabático a aquel en el cual el

sistema (generalmente, un fluido que realiza un trabajo) no intercambia calor con

su entorno. Un proceso adiabático que es además reversible se conoce como

proceso isentrópico. El extremo opuesto, en el que tiene lugar la máxima

transferencia de calor, causando que la temperatura permanezca constante, se

denomina como proceso isotérmico.

El término adiabático hace referencia a elementos que impiden la transferencia de

calor con el entorno. Una pared aislada se aproxima bastante a un límite

adiabático. Otro ejemplo es la temperatura adiabática de llama, que es la

temperatura que podría alcanzar una llama si no hubiera pérdida de calor hacia el

entorno. En climatización los procesos de humectación (aporte de vapor de agua)

son adiabáticos, puesto que no hay transferencia de calor, a pesar que se consiga

variar la temperatura del aire y su humedad relativa.

El calentamiento y enfriamiento adiabático son procesos que comúnmente ocurren

debido al cambio en la presión de un gas. Esto puede ser cuantificado usando la

ley de los gases ideales

Existen tres relaciones en el enfriamiento adiabático del aire:

1. La relación ambiente de la atmósfera, que es el proporción a la que el

aire se enfría a medida que se gana altitud.

2. La tasa seca adiabática, es de unos -10° por cada 1000 metros de

subida.

3. La tasa húmeda adiabática, es de unos -6° por cada 1000 metros de

subida.

La primera relación se usa para describir la temperatura del aire circundante a

través del cual está pasando el aire ascendente. La segunda y tercera proporción

son las referencias para una masa de aire que está ascendiendo en la atmósfera.

La tasa seca adiabática se aplica a aire que está por debajo del punto de rocío,

por ejemplo si no está saturado de vapor de agua, mientras que la tasa húmeda

adiabática se aplica a aire que ha alcanzado su punto de rocío. El enfriamiento

adiabático es una causa común de la formación de nubes.

El enfriamiento adiabático no tiene por qué involucrar a un fluido. Una técnica

usada para alcanzar muy bajas temperaturas (milésimas o millonésimas de grado

sobre el cero absoluto) es la desmagnetización adiabática, donde el cambio en un

campo magnético en un material magnético es usado para conseguir un

enfriamiento adiabático.

La ecuación matemática que describe un proceso adiabático en un gas es

donde P es la presión del gas, V su volumen y

siendo CP el calor específico molar a presión constante y CV el calor específico

molar a volumen constante. Para un gas monoatómico ideal, γ = 5 / 3. Para un gas

diatómico (como el nitrógeno o el oxígeno, los principales componentes del aire) γ

= 1,4

Derivación de la fórmula

La definición de un proceso adiabático es que la transferencia de calor del sistema

es cero, Q = 0.

Por lo que de acuerdo con el primer principio de la termodinámica,

donde U es la energía interna del sistema y W es el trabajo realizado por el

sistema. Cualquier trabajo (W) realizado debe ser realizado a expensas de la

energía U, mientras que no haya sido suministrado calor Q desde el exterior. El

trabajo W realizado por el sistema se define como

Sin embargo, P no permanece constante durante el proceso adiabático sino que

por el contrario cambia junto con V.

Deseamos conocer como los valores de ΔP y ΔV se relacionan entre sí durante el

proceso adiabático. Para ello asumiremos que el sistema es una gas

monoatómico, por lo que

donde R es la constante universal de los gases.

Dado ΔP y ΔV entonces W =

PΔV y

Ahora sustituyendo las ecuaciones (2) y (3) en la ecuación (1) obtenemos

simplificando

dividiendo ambos lados de la igualdad entre PV

Aplicando las normas del cálculo diferencial obtenemos que

que se puede expresar como

Para ciertas constantes P0 y V0 del estado inicial. Entonces

elevando al exponente ambos lados de la igualdad

eliminando el signo menos

por lo tanto

y

3. OPTICA

Óptica, rama de la física que se ocupa de la propagación y el comportamiento de

la luz. En un sentido amplio, la luz es la zona del espectro de radiación

electromagnética que se extiende desde los rayos X hasta las microondas, e

incluye la energía radiante que produce la sensación de visión. El estudio de la

óptica se divide en dos ramas, la óptica geométrica y la óptica física.

Propagación de la luz.

o Observación fenomenológica del hecho que la luz se refleja,

transmite y absorbe, al igual que el sonido. Distinción entre la

propagación de una onda en un medio (sonido) y en el vacío (luz).

Historia del debate entre la hipótesis corpuscular y la hipótesis

ondulatoria, para explicar estos fenómenos.

o Derivación geométrica de la ley de reflexión, a partir del principio de

Fermat. Distinción cualitativa del comportamiento de la luz reflejada

por espejos convergentes y divergentes. Espejos parabólicos.

o Distinción cualitativa entre lentes convergentes y divergentes. La

óptica del ojo humano. Defectos de la visión y su corrección

mediante diversos tipos de lentes.

o El telescopio y su impacto en nuestra concepción del Universo, a

través de la historia.

Naturaleza de la luz.

o Demostración fenomenológica de la descomposición de la luz blanca

en un prisma. El arco iris: debate acerca de diversas hipótesis

explicativas de su origen.

o La luz como una onda. Observación y discusión de esta

característica a través de la difracción en bordes y fenómenos de

interferencia.

o Distinción entre luz visible, radiación infrarroja y ultravioleta, rayos X,

microondas, ondas de radio. El radar. El rayo láser como fuente de

luz coherente y monocromática.

La luz como una forma de energía. Descripción del espectro de radiación del Sol y

su carácter de principal fuente de energía para la vida en la Tierra.

3.3 ESPEJOS Y LENTES

Los espejos son superficies muy pulimentadas, con una capacidad reflectora del

95% o superior de la intensidad de la luz incidente.

Consideremos un rayo de luz que se refracta desde un medio de índice n a otro

hipotético de índice de refracción –n. Aplicando la ley de Snell:

n sen i = -n sen r

De donde se deduce que: i = -r Un ángulo de refracción negativo equivale a

una inversión en el sentido del rayo.

Espejos esféricos formación de imágenes por espejos esféricos

Un espejo esférico está caracterizado por su radio de curvatura R. En el caso de

los espejos esféricos solo existe un punto focal F=F´=R/2 cuya posición coincide

con el punto medio entre el centro del espejo y el vértice del mismo. Se encontrará

a la izquierda del vértice para los espejos cóncavos y a la derecha para los

espejos convexos.

El aumento del espejo será A =y´/y y dependerá de la curvatura del espejo y de la

posición del objeto.

Formación de imágenes

La construcción de imágenes es muy sencilla si se utilizan los rayos principales:

Rayo paralelo: Rayo paralelo al eje óptico que parte de la parte superior

del objeto. Después de refractarse pasa por el foco imagen.

Rayo focal: Rayo que parte de la parte superior del objeto y pasa por el

foco objeto, con lo cual se refracta de manera que sale paralelo . Después

de refractarse pasa por el foco imagen.

Rayo radial: Rayo que parte de la parte superior del objeto y está dirigido

hacia el centro de curvatura del dioptrio. Este rayo no se refracta y continúa

en la mismas dirección ya que el ángulo de incidencia es igual a cero.

Hay que distinguir entre los espejos cóncavos y los convexos:

Espejos cóncavos

1. Objeto situado a la izquierda del centro de curvatura. La imagen es real,

invertida y situada entre el centro y el foco. Su tamaño es menor que el

objeto.

2. Objeto situado en el centro de curvatura. La imagen es real, invertida y

situada en el mismo punto. Su tamaño igual que el objeto.

3. Objeto situado entre el centro de curvatura y el foco. La imagen es real,

invertida y situada a la izquierda del centro de curvatura. Su tamaño es

mayor que el objeto.

4. Objeto situado en el foco del espejo. Los rayos reflejados son paralelos y la

imagen se forma en el infinito.

5. Objeto situado a la derecha del foco. La imagen es virtual, y conserva su

orientación. Su tamaño es mayor que el objeto.

a) Objeto situado a la izquierda

del centro de curvatura. La

imagen es real, invertida y

situada entre el centro y el foco.

Su tamaño es menor que el

objeto.

b) Objeto situado en el centro de

curvatura. La imagen es real,

invertida y situada en el mismo

punto. Su tamaño igual que el

objeto.

c) Objeto situado entre el centro

de curvatura y el foco. La

imagen es real, invertida y

Espejos convexos

Se produce una situación en la que la imagen es virtual, derecha y más pequeña

que el objeto.

Se produce una situación en la

que la imagen es virtual, derecha

y más pequeña que el objeto.

Para observar la formación de rayos pulsa start y cambia la posición del objeto y

el radio de curvatura de los espejos. Se puede cambiar entre lentes y espejos.

Lentes delgadas convergentes y divergentes

Una lente es un medio transparente limitado por dos superficies curvas. Una onda

incidente sufre dos refracciones al pasar a través de la lente.

Hay dos tipos de lentes: convergentes y divergentes.

En las lentes convergentes el foco imagen está a la derecha de la lente, f´ > 0.

situada a la izquierda del centro

de curvatura. Su tamaño es

mayor que el objeto.

d) Objeto situado en el foco del

espejo. Los rayos reflejados son

paralelos y la imagen se forma

en el infinito.

e) Objeto situado a la derecha

del foco. La imagen es virtual, y

conserva su orientación. Su

tamaño es mayor que el objeto.

En la lentes divergentes el foco imagen está a la izquierda de la lente, f´ < 0.

Las lentes convergentes son más gruesas por el centro que por los extremos,

mientras que las divergentes son más gruesas por los extremos que por el centro.

Se define además la potencia de una lente como la inversa de su distancia focal

imagen P=1/f´ y mide la mayor o menor convergencia de los rayos emergentes, a

mayor potencia mayor convergencia de los rayos. La unidad de potencia de una

lente es la dioptría, que se define como la potencia de una lente cuya distancia

focal es de un metro.

Formación de imágenes por lentes delgadas

La construcción de imágenes es muy sencilla si se utilizan los rayos principales:

- Rayo paralelo: Rayo paralelo al eje óptico que parte de la parte superior

del objeto. Después de refractarse pasa por el foco imagen.

- Rayo focal: Rayo que parte de la parte superior del objeto y pasa por el

foco objeto, con lo cual se refracta de manera que sale paralelo . Después

de refractarse pasa por el foco imagen.

- Rayo radial: Rayo que parte de la parte superior del objeto y está dirigido

hacia el centro de curvatura del dioptrio. Este rayo no se refracta y continúa

en la mismas

Rayo focal en una lente convergente.

Lentes convergentes

Tanto en la lentes convergentes como en las divergentes hay dos posibilidades

para situar el espejo: más lejos de la lente que el foco objeto (imágenes reales) o

entre ambos (imágenes virtuales).

Lentes divergentes

Hay dos posibilidades para situar el espejo: más lejos de la lente que el foco

objeto o entre ambos. En ambos casos las imágenes que se forman son virtuales.

Una cantidad importante es el cociente entre el tamaño de la imagen y el tamaño

del objeto A=y´/ý cantidad que recibe el nombre de aumento lateral.

Instrumentos ópticos

El trazado de rayos en sistemas de lentes y espejos es particularmente importante

para el diseño de los siguientes instrumentos ópticos:

a) El microscopio: Es un sistema de lentes que produce una imagen virtual

aumentada de un apequeño objeto. El microscopio más simple es una lente

convergente, la lupa. El objeto se coloca entre la lente y el foco, de modo que la

imagen es virtual y está a una distancia que es la distancia mínima de visón nítida,

alrededor de 25 cm.

El microscopio compuesto consiste en dos lentes convergentes de pequeña

distancia focal, llamadas objetivo y ocular. La distancia focal del objetivo f, es

mucho menos que la distancia focal f´ del ocular. El objeto AB se coloca a una

distancia del objetivo ligeramente mayor que f. El objetivo forma una primera

imagen a´b´ que hace de objeto para el ocular. La imagen a´b´ debe estar a una

distancia del ocular ligeramente menor que f´. La imagen final ab es virtual,

invertida y mucho mayor que el objeto. El objeto AB se coloca de tal manera que

ab está a una distancia del ocular igual a la distancia mínima de visión nítida,

alrededor de 25 cm. Esta condición se realiza mediante el enfoque que consiste

en mover todo el microscopio respecto al objeto.(Se puede observar la imagen a

través de una lente convexa).

b) El Telescopio: El objetivo es una lente convergente de distancia focal f muy

grande, a veces de varios metros. Como el objeto AB es muy distante, su imagen

a´b´ producida por el objetivo, está en su foco F0. Sólo se necesitan los rayos

centrales para conocer la posición de la imagen.

El ocular es una lente convergente de distancia focal f´ mucho menor. De coloca

de tal que la imagen intermedia a´b´ esté entre el ocular y su foco. y la imagen

final ab esté a la la distancia mínima de visón nítida, alrededor de 25 cm. El

enfoque se hace moviendo el ocular ya que nada se gana moviendo el objetivo.

(Se puede observar la imagen a través de una lente concava).

Interferencia, efecto que se produce cuando dos o más ondas se solapan o

entrecruzan. Cuando las ondas interfieren entre sí, la amplitud (intensidad o

tamaño) de la onda resultante depende de las frecuencias, fases relativas

(posiciones relativas de crestas y valles) y amplitudes de las ondas iniciales

(véase Movimiento ondulatorio). Por ejemplo, la interferencia constructiva se

produce en los puntos en que dos ondas de la misma frecuencia que se solapan o

entrecruzan están en fase; es decir, cuando las crestas y los valles de ambas

ondas coinciden. En ese caso, las dos ondas se refuerzan mutuamente y forman

una onda cuya amplitud es igual a la suma de las amplitudes individuales de las

ondas originales. La interferencia destructiva se produce cuando dos ondas de la

misma frecuencia están completamente desfasadas una respecto a la otra; es

decir, cuando la cresta de una onda coincide con el valle de otra. En este caso, las

dos ondas se cancelan mutuamente. Cuando las ondas que se cruzan o solapan

tienen frecuencias diferentes o no están exactamente en fase ni desfasadas, el

esquema de interferencia puede ser más complejo.

La luz visible está formada por ondas electromagnéticas que pueden interferir

entre sí. La interferencia de ondas de luz causa, por ejemplo, las irisaciones que

se ven a veces en las burbujas de jabón. La luz blanca está compuesta por ondas

de luz de distintas longitudes de onda. Las ondas de luz reflejadas en la superficie

interior de la burbuja interfieren con las ondas de esa misma longitud reflejadas en

la superficie exterior. En algunas de las longitudes de onda, la interferencia es

constructiva, y en otras destructiva. Como las distintas longitudes de onda de la

luz corresponden a diferentes colores, la luz reflejada por la burbuja de jabón

aparece coloreada. El fenómeno de la interferencia entre ondas de luz visible se

utiliza en holografía e interferometría (véase Holograma; Interferómetro).

La interferencia puede producirse con toda clase de ondas, no sólo ondas de luz.

Las ondas de radio interfieren entre sí cuando rebotan en los edificios de las

ciudades, con lo que la señal se distorsiona. Cuando se construye una sala de

conciertos hay que tener en cuenta la interferencia entre ondas de sonido, para

que una interferencia destructiva no haga que en algunas zonas de la sala no

puedan oírse los sonidos emitidos desde el escenario. Arrojando objetos al agua

estancada se puede observar la interferencia de ondas de agua, que es

constructiva en algunos puntos y destructiva en otros.

3.6 POLARIZACION DE LA LUZ

Los átomos de una fuente de luz ordinaria emiten pulsos de radiación de duración

muy corta. Cada pulso procedente de un único átomo es un tren de ondas

prácticamente monocromático (con una única longitud de onda). El vector eléctrico

correspondiente a esa onda no gira en torno a la dirección de propagación de la

onda, sino que mantiene el mismo ángulo, o acimut, respecto a dicha dirección. El

ángulo inicial puede tener cualquier valor. Cuando hay un número elevado de

átomos emitiendo luz, los ángulos están distribuidos de forma aleatoria, las

propiedades del haz de luz son las mismas en todas direcciones, y se dice que la

luz no está polarizada. Si los vectores eléctricos de todas las ondas tienen el

mismo ángulo acimutal (lo que significa que todas las ondas transversales están

en el mismo plano), se dice que la luz está polarizada en un plano, o polarizada

linealmente.

Cualquier onda electromagnética puede considerarse como la suma de dos

conjuntos de ondas: uno en el que el vector eléctrico vibra formando ángulo recto

con el plano de incidencia y otro en el que vibra de forma paralela a dicho plano.

Entre las vibraciones de ambas componentes puede existir una diferencia de fase,

que puede permanecer constante o variar de forma constante. Cuando la luz está

linealmente polarizada, por ejemplo, esta diferencia de fase se hace 0 o 180°. Si la

relación de fase es aleatoria, pero una de las componentes es más intensa que la

otra, la luz está en parte polarizada. Cuando la luz es dispersada por partículas de

polvo, por ejemplo, la luz que se dispersa en un ángulo de 90°. Con la trayectoria

original del haz está polarizada en un plano, lo que explica por qué la luz

procedente del cenit está marcadamente polarizada.

Para ángulos de incidencia distintos de 0 o 90°, la proporción de luz reflejada en el

límite entre dos medios no es igual para ambas componentes de la luz. La

componente que vibra de forma paralela al plano de incidencia resulta menos

reflejada. Cuando la luz incide sobre un medio no absorbente con el denominado

ángulo de Brewster, llamado así en honor al físico británico del siglo XIX David

Brewster, la parte reflejada de la componente que vibra de forma paralela al plano

de incidencia se hace nula. Con ese ángulo de incidencia, el rayo reflejado es

perpendicular al rayo refractado; la tangente de dicho ángulo de incidencia es igual

al cociente entre los índices de refracción del segundo medio y el primero.

Algunas sustancias son anisótropas, es decir, muestran propiedades distintas

según la dirección del eje a lo largo del cual se midan. En esos materiales, la

velocidad de la luz depende de la dirección en que ésta se propaga a través de

ellos. Algunos cristales son birrefringentes, es decir, presentan doble refracción. A

no ser que la luz se propague de forma paralela a uno de los ejes de simetría del

cristal (un eje óptico del cristal), la luz se separa en dos partes que avanzan con

velocidades diferentes. Un cristal uniáxico tiene uno de estos ejes. La componente

cuyo vector eléctrico vibra en un plano que contiene el eje óptico es el llamado

rayo ordinario; su velocidad es la misma en todas las direcciones del cristal, y

cumple la ley de refracción de Snell. La componente que vibra formando un ángulo

recto con el plano que contiene el eje óptico constituye el rayo extraordinario, y la

velocidad de este rayo depende de su dirección en el cristal. Si el rayo ordinario se

propaga a mayor velocidad que el rayo extraordinario, la birrefringencia es

positiva; en caso contrario la birrefringencia es negativa.

Cuando un cristal es biáxico, la velocidad depende de la dirección de propagación

para todas las componentes. Se pueden cortar y tallar los materiales

birrefringentes para introducir diferencias de fase específicas entre dos grupos de

ondas polarizadas, para separarlos o para analizar el estado de polarización de

cualquier luz incidente. Un polarizador sólo transmite una componente de la

vibración, ya sea reflejando la otra mediante combinaciones de prismas

adecuadamente tallados o absorbiéndola. El fenómeno por el que un material

absorbe preferentemente una componente de la vibración se denomina dicroísmo.

El material conocido como Polaroid presenta dicroísmo; está formado por

numerosos cristales dicroicos de pequeño tamaño incrustados en plástico, con

todos sus ejes orientados de forma paralela. Si la luz incidente es no polarizada, el

Polaroid absorbe aproximadamente la mitad de la luz. Los reflejos de grandes

superficies planas, como un lago o una carretera mojada, están compuestos por

luz parcialmente polarizada, y un Polaroid con la orientación adecuada puede

absorberlos en más de la mitad. Este es el principio de las gafas o anteojos de sol

Polaroid.

Los llamados analizadores pueden ser físicamente idénticos a los polarizadores.

Si se cruzan un polarizador y un analizador situados consecutivamente, de forma

que el analizador esté orientado para permitir la transmisión de las vibraciones

situadas en un plano perpendicular a las que transmite el polarizador, se

bloqueará toda la luz procedente del polarizador.

Las sustancias ‘ópticamente activas’ giran el plano de polarización de la luz

linealmente polarizada. Un cristal de azúcar o una solución de azúcar, pueden ser

ópticamente activos. Si se coloca una solución de azúcar entre un polarizador y un

analizador cruzados tal como se ha descrito antes, parte de la luz puede atravesar

el sistema. El ángulo que debe girarse el analizador para que no pase nada de luz

permite conocer la concentración de la solución. El polarímetro se basa en este

principio.

Algunas sustancias —como el vidrio y el plástico— que no presentan doble

refracción en condiciones normales pueden hacerlo al ser sometidas a una

tensión. Si estos materiales bajo tensión se sitúan entre un polarizador y un

analizador, las zonas coloreadas claras y oscuras que aparecen proporcionan

información sobre las tensiones. La tecnología de la fotoelasticidad se basa en la

doble refracción producida por tensiones.

También puede introducirse birrefringencia en materiales normalmente

homogéneos mediante campos magnéticos y eléctricos. Cuando se somete un

líquido a un campo magnético fuerte, puede presentar doble refracción. Este

fenómeno se conoce como efecto Kerr, en honor del físico británico del siglo XIX

John Kerr. Si se coloca un material apropiado entre un polarizador y un analizador

cruzados, puede transmitirse o no la luz según si el campo eléctrico en el material

está conectado o desconectado. Este sistema puede actuar como un conmutador

o modulador de luz extremadamente rápido.

4. ELECTRICIDAD

4.1 Circuitos eléctricos

Un circuito eléctrico está compuesto normalmente por un conjunto de elementos

activos -que generan energía eléctrica (por ejemplo baterías, que convierten la

energía de tipo químico en eléctrica)- y de elementos pasivos -que consumen

dicha energía (por ejemplo resistencias, que convierten la energía eléctrica en

calor, por efecto Joule)- conectados entre sí. El esquema siguiente presenta un

circuito compuesto por una batería (elemento de la izquierda) y varias resistencias.

Las magnitudes que se utilizan para describir el comportamiento de un circuito son

la Intensidad de Corriente Eléctrica y el Voltaje o caída de potencial. Estas

magnitudes suelen representarse, respectivamente, por I y V y se miden en

Amperios (A) y Voltios (V) en el Sistema Internacional de Unidades.

La intensidad de corriente eléctrica es la cantidad de carga que, por segundo,

pasa a través de un cable o elemento de un circuito.

El voltaje es una medida de la separación o gradiente de cargas que se establece

en un elemento del circuito. También se denomina caída de potencial o diferencia

de potencial (d.d.p.) y, en general, se puede definir entre dos puntos arbitrarios de

un circuito. El voltaje está relacionado con la cantidad de energía que se convierte

de eléctrica en otro tipo (calor en una resistencia) cuando pasa la unidad de carga

por el dispositivo que se considere; se denomina fuerza electromotriz (f.e.m.)

cuando se refiere al efecto contrario, conversión de energía de otro tipo (por

ejemplo químico en una batería) en energía eléctrica. La f.e.m. suele designarse

por e y, lógicamente, se mide también en Voltios.

Los elementos de un circuito se interconectan mediante conductores. Los

conductores o cables metálicos se utilizan básicamente para conectar puntos que

se desea estén al mismo potencial (es decir, idealmente la caída de potencial a lo

largo de un cable o conductor metálico es cero).

4.1.1 Leyes de Kirchoff

Las leyes de Kirchoff se utilizan para la resolución de un circuito en la forma

que se expone a continuación. Utilizaremos como ejemplo de aplicación el circuito

ya presentado anteriormente:

4.1.2. MALLAS Y NODOS

La ley de nudos proviene de la conservación de la carga y dice, esencialmente,

que la suma de las corrientes que llegan a un nodo es cero; es decir, que el total

de corriente que entra (signo mas, por ejemplo) es igual al total de la corriente que

sale del nudo (signo menos en su caso). Esta ley ha de aplicarse a tantos nudos

existan en nuestro circuito, menos uno. En nuestro caso, a un nudo;

seleccionando el nudo A y suponiendo definimos como positiva la corriente

entrante en el nudo:

I1 - I2 - I3 = 0

La ley de mallas establece que la suma de caídas de potencial a lo largo de una

malla debe coincidir con la suma de fuerzas electromotrices (de los elementos

activos) a lo largo de la misma. Si no hubiera elementos activos, la suma de

potenciales a lo largo de un recorrido cerrado es cero, lo cual está ligado al

carácter conservativo del campo eléctrico. Para su aplicación es preciso

previamente asignar un sentido de recorrido a las mallas y dar algún convenio de

signos:

Una f.e.m se tomará como positiva si en nuestro recorrido salimos por el polo

positivo. Una caída de potencial se tomará como positiva si en nuestro recorrido

vamos a favor de la corriente cuando pasamos por el elemento. En nuestro circuito

las caídas de potencial son todas en resistencias óhmicas; si es I la intensidad que

atraviesa a una resistencia R, la caída de potencial es IR.

En nuestro caso, utilizando las mallas I y II recorridas en los sentidos indicados

tendremos las siguientes ecuaciones:

e1 = I1R1 + I3R3

-e2 = I2R2+I2R4– I3R3 = I2(R2 + R4) – I3R3

Conocidos los valores de los elementos que constituyen nuestro circuito, las tres

ecuaciones anteriormente expuestas configuran un sistema lineal del que se

pueden despejar los valores de I1, I2 e I3. Obsérvese que en el circuito anterior R2

y R4 se asocian como si fueran una sola resistencia de valor (R2 + R4). Este es un

ejemplo de cómo se asocian resistencias en serie, que son las que están en una

misma rama no importando en qué ubicación.

4.1 Asociación de elementos en Serie y en Paralelo

Previo a analizar un circuito conviene proceder a su simplificación cuando se

encuentran asociaciones de elementos en serie o en paralelo. El caso estudiado

anteriormente corresponde, como se ha dicho, a una asociación de resistencias en

Serie. Se dice que varios elementos están en serie cuando están todos en la

misma rama y, por tanto, atravesados por la misma corriente. Si los elementos en

serie son Resistencias, ya se ha visto que pueden sustituirse, independiente de su

ubicación y número, por una sola resistencia suma de todas las componentes. En

esencia lo que se está diciendo es que la dificultad total al paso de la corriente

eléctrica es la suma de las dificultades que individualmente presentan los

elementos componentes

RS = R1 + R1 + R3

Esta regla particularizada para el caso de Resistencias sirve también para

asociaciones de f.e.m. (baterías).

Por otra parte, se dice que varios elementos están en Paralelo cuando la caida de

potencial entre todos ellos es la misma. Esto ocurre cuando sus terminales están

unidos entre si como se indica en el esquema siguiente

Ahora la diferencia de potencial entre cualquiera de las resistencias es V, la

existente entre los puntos A y B. La corriente por cada una de ellas es V/Ri

(i=1,2,3) y la corriente total que va de A a B (que habría de ser la que atraviesa Rp

cuando se le aplica el mismo potencial) será I1 + I2 + I3. Para que esto se cumpla

el valor de la conductancia 1/Rp ha de ser la suma de las conductancias de las

Resistencias componentes de la asociación:

1/Rp = 1/R1 + 1/R2 + 1/R3

Lo cual significa que, al haber tres caminos alternativos para el paso de la

corriente, la facilidad de paso (conductancia) ha aumentado: la facilidad total es la

suma de las facilidades.

Las baterías No suelen asociarse en paralelo, debido a su pequeña resistencia

interna. Si se asociaran tendrían que tener la misma f.e.m. que sería la que se

presentaría al exterior. Pero cualquier diferencia daría lugar a que una de las

baterías se descargara en la otra.

4.2 CIRCUITOS ELECTRONICOS DE CORRIENTE ALTERNA

4.2.1 CIRCUITOS RC

Los circuitos RC son circuitos que están compuestos por una resistencia y un

condensador.

Se caracteriza por que la corriente puede variar con el tiempo. Cuando el tiempo

es igual a cero, el condensador está descargado, en el momento que empieza a

correr el tiempo, el condensador comienza a cargarse ya que hay una corriente en

el circuito. Debido al espacio entre las placas del condensador, en el circuito no

circula corriente, es por eso que se utiliza una resistencia.

Cuando el condensador se carga completamente, la corriente en el circuito es

igual a cero.

La segunda regla de Kirchoff dice: V = (IR) - (q/C)

Donde q/C es la diferencia de potencial en el condensador.

En un tiempo igual a cero, la corriente será: I = V/R cuando el condensador no se

ha cargado.

Cuando el condensador se ha cargado completamente, la corriente es cero y la

carga será igual a: Q = CV

CARGA DE UN CONDENSADOR

Ya se conoce que las variables dependiendo del tiempo serán I y q. Y la corriente I

se sustituye por dq/dt (variación de la carga dependiendo de la variación del

tiempo):

(dq/dt)R = V - (q/C)

dq/dt = V/R - (q/(RC))

Esta es una ecuación

Diferencial. Se pueden dq/dt = (VC - q)/(RC)

Separar variable dq/(q - VC) = - dt/(RC)

Al integrar se tiene ln [ - (q - VC)/VC)] = -t/(RC)

Despejando q q dt = C V [(1 - e-t/RC )] = q (1- e-t/RC )

El voltaje será

) = V

DESCARGA DE UN CONDENSADOR

Debido a que la diferencia de potencial en el condensador es IR = q/C, la razón de

cambio de carga en el condensador determinará la corriente en el circuito, por lo

tanto, la ecuación que resulte de la relación entre el cambio de la cantidad de

carga dependiendo del cambio en el tiempo y la corriente en el circuito, estará

dada remplazando I = dq/dt en la ecuación de diferencia de potencial en el

condensador:

q = Q e-t/RC

Donde Q es la carga máxima

La corriente en función del tiempo entonces, resultará al derivar esta ecuación

respecto al tiempo:

I = Q/(RC) e-t/RC

Se puede concluir entonces, que la corriente y la carga decaen de forma

exponencial.

4.2.2 CIRCUITOS RL

Los circuitos RL son aquellos que contienen una bobina (inductor) que tiene

autoinductancia, esto quiere decir que evita cambios instantáneos en la corriente.

Siempre se desprecia la autoinductancia en el resto del circuito puesto que se

considera mucho menor a la del inductor.

Para un tiempo igual a cero, la corriente comenzará a crecer y el inductor

producirá igualmente una fuerza electromotriz en sentido contrario, lo cual hará

que la corriente no aumente. A esto se le conoce como fuerza contraelectromotriz.

Esta fem está dada por: V = -L (inductancia) dI/dt

Debido a que la corriente aumentará con el tiempo, el cambio será positivo (dI/dt)

y la tensión será negativa al haber una caída de la misma en el inductor.

Según kirchhoff: V = (IR) + [L (dI / dt)]

IR = Caída de voltaje a través de la resistencia.

Esta es una ecuación diferencial y se puede hacer la sustitución:

x = (V/R) - I es decir; dx = -dI

Sustituyendo en la ecuación: x + [(L/R)(dx/dt)] = 0

dx/x = - (R/L) dt

Integrando: ln (x/xo) = -(R/L) t

Despejando x: x = xo e -Rt / L

Debido a que xo = V/R

El tiempo es cero

Y corriente cero V/R - I = V/R e -Rt / L

I = (V/R) (1 - e -Rt / L)

El tiempo del circuito está representado por _ = L/R

I = (V/R) (1 - e - 1/_)

Donde para un tiempo infinito, la corriente de la malla será I = V/R. Y se puede

considerar entonces el cambio de la corriente en el tiempo como cero.

Para verificar la ecuación que implica a _ y a I, se deriva una vez y se reemplaza

en la inicial: dI/dt = V/L e - 1/_

Se sustituye: V = (IR) + [L (dI / dt)]

V = [ (V/R) (1 - e - 1/_)R + (L V/ L e - 1/_)]

V - V e - 1/_ = V - V e - 1/_

OSCILACIONES EN UN CIRCUITO LC

Cuando un condensador se conecta a un inductor, tanto la corriente como la carga

den el condensador oscila. Cuando existe una resistencia, hay una disipación de

energía en el sistema porque una cuanta se convierte en calor en la resistencia,

por lo tanto las oscilaciones son amortiguadas. Por el momento, se ignorará la

resistencia.

En un tiempo igual a cero, la carga en el condensador es máxima y la energía

almacenada en el campo eléctrico entre las placas es U = Q2máx/(2C). Después

de un tiempo igual a cero, la corriente en el circuito comienza a aumentar y parte

de la energía en el condensador se transfiere al inductor. Cuando la carga

almacenada en el condensador es cero, la corriente es máxima y toda la energía

está almacenada en el campo eléctrico del inductor. Este proceso se repite de

forma inversa y así comienza a oscilar.

En un tiempo determinado, la energía total del sistema es igual a la suma de las

dos energías (inductor y condensador): U = Uc + UL

U = [ Q2/(2C) ] + ( LI2/2 )

4.2.3 CIRCUITO RLC

Un circuito RLC es aquel que tiene como componentes una resistencia, un

condensador y un inductor conectados en serie

En un tiempo igual a cero, el condensador tiene una carga máxima (Qmáx).

Después de un tiempo igual a cero, la energía total del sistema está dada por la

ecuación presentada en la sección de oscilaciones en circuitos LC

U = [ Q2/(2C) ] + ( LI2/2 )

En las oscilaciones en circuitos LC se había mencionado que las oscilaciones no

eran amortiguadas puesto que la energía total se mantenía constante. En circuitos

RLC, ya que hay una resistencia, hay oscilaciones amortiguadas porque hay una

parte de la energía que se transforma en calor en la resistencia.

El cambio de la energía total del sistema dependiendo del tiempo está dado por la

disipación de energía en una resistencia:

dU/dt = - I2R

Luego se deriva la ecuación de la energía total respecto al tiempo y se remplaza la

dada: LQ´ + RQ´ + (Q/C) = 0

Se puede observar que el circuito RCL tiene un comportamiento oscilatorio

amortiguado:

m(d2x/dt2) + b(dx/dt) + kx = 0

Si se tomara una resistencia pequeña, la ecuación cambiaría a :

Q = Qmáx e -(Rt/2L)Cos wt

w = [ (1/LC) - (R/2L)2 ] 1/2

Entre más alto el valor de la resistencia, la oscilación tendrá amortiguamiento más

veloz puesto que absorbería más energía del sistema. Si R es igual a (4L/C) ½ el

sistema se encuentra sobreamortiguado.

carga

5. INTERACCIONES MATERIA Y ENERGIA

5.1 MECANICA CUANTICA

Modelo atómico de Bohr

Diagrama del modelo atómico de Bohr.

Niels Bohr se basó en el átomo de hidrógeno para realizar el modelo que lleva su

nombre. Bohr intentaba realizar un modelo atómico capaz de explicar la

estabilidad de la materia y los espectros de emisión y absorción discretos que se

observan en los gases. Describió el átomo de hidrógeno con un protón en el

núcleo, y girando a su alrededor un electrón. El modelo atómico de Bohr partía

conceptualmente del modelo atómico de Rutherford y de las incipientes ideas

sobre cuantización que habían surgido unos años antes con las investigaciones de

Max Planck y Albert Einstein. Debido a su simplicidad el modelo de Bohr es

todavía utilizado frecuentemente como una simplificación de la estructura de la

materia.

En este modelo los electrones giran en órbitas circulares alrededor del núcleo,

ocupando la órbita de menor energía posible, o sea la órbita más cercana al

núcleo posible. El electromagnetismo clásico predecía que una partícula cargada

moviéndose de forma circular emitiría energía por lo que los electrones deberían

colapsar sobre el núcleo en breves instantes de tiempo. Para superar este

problema Bohr supuso que los electrones solamente se podían mover en órbitas

específicas, cada una de las cuales caracterizada por su nivel energético. Cada

órbita puede entonces identificarse mediante un número entero n que toma

valores desde 1 en adelante. Este número "n" recibe el nombre de Número

Cuántico Principal.

Bohr supuso además que el momento angular de cada electrón estaba cuantizado

y sólo podía variar en fracciones enteras de la constante de Planck. De acuerdo al

número cuántico principal calculó las distancias a las cuales se hallaba del núcleo

cada una de las órbitas permitidas en el átomo de hidrógeno.

Estos niveles en un principio estaban clasificados por letras que empezaban en la

"K" y terminaban en la "Q". Posteriormente los niveles electrónicos se ordenaron

por números. Cada órbita tiene electrones con distintos niveles de energía

obtenida que después se tiene que liberar y por esa razón el electrón va saltando

de una órbita a otra hasta llegar a una que tenga el espacio y nivel adecuado,

dependiendo de la energía que posea, para liberarse sin problema y de nuevo

volver a su órbita de origen.

El modelo atómico de Bohr constituyó una de las bases fundamentales de la

mecánica cuántica. Explicaba la estabilidad de la materia y las características

principales del espectro de emisión del hidrógeno. Sin embargo no explicaba el

espectro de estructura fina que podría ser explicado algunos años más tarde

gracias al modelo atómico de Sommerfeld. Históricamente el desarrollo del modelo

atómico de Bohr junto con la dualidad onda-corpúsculo permitiría a Erwin

Schrödinger descubrir la ecuación fundamental de la mecánica cuántica.

Postulados de Bohr

En 1913 Niels Bohr desarrolló su célebre modelo atómico de acuerdo a cuatro

postulados fundamentales:

1. Los electrones orbitan el átomo en niveles discretos y cuantizados de energía,

es decir, no todas las órbitas están permitidas, tan sólo un número finito de éstas.

2. Los electrones pueden saltar de un nivel electrónico a otro sin pasar por

estados intermedios.

3. El salto de un electrón de un nivel cuántico a otro implica la emisión o

absorción de un único cuanto de luz (fotón) cuya energía corresponde a la

diferencia de energía entre ambas órbitas.

4. Las órbitas permitidas tienen valores discretos o cuantizados del momento

angular orbital L de acuerdo con la siguiente ecuación:

Donde n = 1,2,3,… es el número cuántico angular o número cuántico principal.

La cuarta hipótesis asume que el valor mínimo de n es 1. Este valor corresponde a

un mínimo radio de la órbita del electrón de 0.0529 nm. A esta distancia se le

denomina radio de Bohr. Un electrón en este nivel fundamental no puede

descender a niveles inferiores emitiendo energía.

Se puede demostrar que este conjunto de hipótesis corresponde a la hipótesis de

que los electrones estables orbitando un átomo están descritos por funciones de

onda estacionarias.

La mecánica cuántica, conocida también como mecánica ondulatoria y como

física cuántica, es la rama de la física que estudia el comportamiento de la

materia a escala muy pequeña.

El concepto de partícula "muy pequeña" atiende al tamaño en el cual comienzan a

notarse efectos como la imposibilidad de conocer con exactitud, arbitraria y

simultáneamente, la posición y el momento de una partícula (véase Principio de

indeterminación de Heisenberg), entre otros. A tales efectos suele denominárseles

"efectos cuánticos". Así, la mecánica cuántica es la que rige el movimiento de

sistemas en los cuales los efectos cuánticos sean relevantes. Se ha documentado

que tales efectos son importantes en materiales mesoscópicos (unos 1000

átomos).

Las suposiciones más importantes de esta teoría son las siguientes:

La energía no se intercambia de forma continua, sino que en todo

intercambio energético hay una cantidad mínima involucrada, es decir un

cuanto (cuantización de la energía).

Al ser imposible fijar a la vez la posición y el momento de una partícula, se

renuncia al concepto de trayectoria, vital en mecánica clásica. En vez de eso,

el movimiento de una partícula queda regido por una función matemática que

asigna, a cada punto del espacio y a cada instante, la probabilidad de que la

partícula descrita se halle en tal posición en ese instante (al menos, en la

interpretación de la Mecánica cuántica más usual, la probabilística o

interpretación de Copenhague). A partir de esa función, o función de ondas, se

extraen teóricamente todas las magnitudes del movimiento necesarias.

Aunque la estructura formal de la teoría está bien desarrollada, y sus resultados

son coherentes con los experimentos, no sucede lo mismo con su interpretación,

que sigue siendo objeto de controversias.

La teoría cuántica fue desarrollada en su forma básica a lo largo de la primera

mitad del siglo XX. El hecho de que la energía se intercambie de forma discreta se

puso de relieve por hechos experimentales como los siguientes, inexplicables con

las herramientas teóricas "anteriores" de la mecánica clásica o la electrodinámica:

Espectro de la radiación del cuerpo negro, resuelto por Max Planck con la

cuantización de la energía. La energía total del cuerpo negro resultó que tomaba

valores discretos más que continuos. Este fenómeno se llamó cuantización, y los

intervalos posibles más pequeños entre los valores discretos son llamados quanta

(singular: quantum, de la palabra latina para "cantidad", de ahí el nombre de

mecánica cuántica.") El tamaño de los cuantos varía de un sistema a otro.

Bajo ciertas condiciones experimentales, los objetos microscópicos como los

átomos o los electrones exhiben un comportamiento ondulatorio, como en la

interferencia. Bajo otras condiciones, las mismas especies de objetos exhiben un

comportamiento corpuscular, de partícula, ("partícula" quiere decir un objeto que

puede ser localizado en una región especial del Espacio), como en la dispersión

de partículas. Este fenómeno se conoce como dualidad onda-partícula.

Las propiedades físicas de objetos con historias relacionadas pueden ser

correlacionadas en una amplitud prohibida por cualquier teoría clásica, en una

amplitud tal que sólo pueden ser descritos con precisión si nos referimos a ambos

a la vez. Este fenómeno es llamado entrelazamiento cuántico y la desigualdad de

Bell describe su diferencia con la correlación ordinaria. Las medidas de las

violaciones de la desigualdad de Bell fueron de las mayores comprobaciones de la

mecánica cuántica.

Explicación del efecto fotoeléctrico, dada por Albert Einstein, en que volvió a

aparecer esa "misteriosa" necesidad de cuantizar la energía.

Efecto Compton.

El desarrollo formal de la teoría fue obra de los esfuerzos conjuntos de muchos y

muy buenos físicos y matemáticos de la época como Erwin Schrödinger, Werner

Heisenberg, Albert Einstein, P.A.M. Dirac, Niels Bohr y Von Neumann entre otros

(la lista es larga). Algunos de los aspectos fundamentales de la teoría están siendo

aún estudiados activamente. La mecánica cuántica ha sido también adoptada

como la teoría subyacente a muchos campos de la física y la química, incluyendo

en materia condensada, química cuántica y física de partículas.

La región de origen de la mecánica cuántica puede localizarse en la Europa

central, en Alemania y Austria, y en el contexto histórico del primer tercio del siglo

XX.

LOS CUANTA DE ENERGÍA

El problema de la radiación térmica también conocido como el problema del

"cuerpo negro", fue resuelto por Max Planck en el año de 1900. Así se inició una

de las más importantes ramas de lo que ahora llamamos física moderna. Planck

halló la solución al postular que la energía de una onda electromagnética (o

cualquier otro sistema oscilante) puede existir en forma de paquetes llamados

cuanta. La energía E de cada cuanta es directamente proporcional a la frecuencia

de oscilación. Esto es

E = hv

donde h es una constante universal, hoy conocida como constante de Planck y

que vale h = 6.6256 x 10-34 joules-segundo.

Con esta suposición y haciendo uso de la física estadística se puede ahora

calcular la distribución de energía emitida por longitud de onda por un cuerpo a la

temperatura T. El resultado es una expresión matemática que concuerda

maravillosamente con los resultados experimentales mostrados en la figura I.2. ¡El

problema del cuerpo negro estaba así resuelto!

Aunque Planck tuvo la necesidad de postular la cuantificación de la energía, él no

creía realmente en la existencia física de tales paquetes energéticos. Sin embargo

la evidencia experimental mostró, en efecto, que un sistema físico no puede

intercambiar cantidades arbitrarias de energía sino sólo cantidades cuantizadas.

Asimismo, dicha evidencia experimental mostró que los cuanta se comportan

como partículas. Es decir, los cuanta no eran sólo un recurso matemático que

permitió resolver un problema, sino entes físicos reales. Dos importantes

experimentos que apoyaron decididamente esta idea fueron el efecto fotoeléctrico

y el efecto Compton; el primero fue explicado por Albert Einstein en 1905 y el

segundo por Arthur H. Compton en 1923.

ÁTOMOS Y TRANSICIONES ELECTRÓNICAS

El primer modelo "moderno" del átomo fue proporcionado por Ernest Rutherford.

Este modelo estaba basado en sus resultados experimentales que mostraban

conclusivamente que el átomo está formado por un núcleo muy masivo con carga

positiva, alrededor del cual giraban los electrones, con carga negativa, formando

un sistema similar a un pequeño sistema planetario. El problema fundamental de

este modelo estaba en que, de acuerdo con la teoría electromagnética clásica,

una partícula cargada como un electrón, girando en una órbita, debería radiar

ondas electromagnéticas y perder así rápidamente toda su energía. Es decir, un

átomo sería un sistema inestable en el cual sus electrones se colapsarían

siguiendo órbitas espirales hacia el núcleo atómico y emitiendo en el proceso un

breve destello de radiación electromagnética de una cienmillonésima de segundo.

El universo, tal como lo conocemos, no podría existir. Nuevamente, como en el

problema de la radiación térmica, la física clásica era incapaz de proporcionar una

respuesta congruente con la observación experimental.

Quien solucionó en 1913 esta paradójica situación fue el físico Niels Bohr al

proponer un modelo atómico en el cual los electrones únicamente pueden

encontrarse en un número discreto de órbitas alrededor del núcleo; para que un

electrón pase de una órbita a otra debe emitir (o absorber, según el caso) un

cuanto de energía. Así, Bohr sintetizó con su modelo los resultados

experimentales de Rutherford y las proposiciones teóricas de Planck.

La figura I.3 muestra la estructura de un átomo de acuerdo con la teoría de Bohr.

En este ejemplo tenemos que un electrón puede encontrarse solamente en una de

las cinco órbitas mostradas. Para que el electrón pase de la primera a la segunda

órbita necesita recibir un cuanto con energía exactamente igual a la diferencia de

energía entre la primera y la segunda órbita. Igualmente, el paso de un electrón de

una órbita superior a otra inferior sólo será posible si éste emite un cuanto con

energía igual a la diferencia de energía entre dichas órbitas.

Figura I.3.

Nótese que si el electrón se encuentra en la primera órbita no podrá emitir ningún

cuanto de energía puesto que ya no hay órbitas de menor energía a las cuales

pueda descender. Por otra parte, también debe observarse que a partir de la

última órbita (en el caso de la figura, la 5ª. órbita), si el electrón recibe otro cuanto

de energía éste pasará a ser un "electrón libre" y se separará del átomo, pues ya

no hay más órbitas superiores a las cuales pasar. Entonces decimos que el átomo

está ionizado, esto es, se ha convertido en un átomo que ha perdido uno o varios

de sus electrones.

El modelo de Bohr explicó los espectros de emisión de átomos simples como el

hidrógeno y el helio, y proporcionó las bases para comprender el espectro de

átomos más complejos. Claro está, la física atómica no se detuvo allí; pronto este

modelo fue incapaz de explicar nuevas observaciones experimentales y como

consecuencia tuvo que ser mejorado. No obstante, las ideas esenciales del

modelo atómico de Bohr que hemos expuesto son suficientes para comprender lo

que veremos a continuación.

INTERACCIÓN ÁTOMO-CUANTO

Ahora enunciaremos los procesos básicos de interacción entre la materia y la

radiación electromagnética que en su más pequeña escala se reducen a los

procesos de interacción entre átomos y cuantos de energía de radiación

electromagnética.

Supondremos un sistema atómico elemental con dos niveles de energía E1 y E2 en

el cual el primer nivel corresponde a un electrón en su órbita inferior y el segundo

nivel corresponde a un electrón en su órbita superior. En el primer caso diremos

que el átomo se encuentra en su estado base y en el segundo caso en su estado

excitado. Como vimos en la sección anterior, este sistema atómico sólo podrá

interaccionar con cuantos que tengan una energía E igual a la diferencia de

energía E = E2 - E1. Por lo tanto, la frecuencia v asociada a dichos cuantos de

energía es

E2 - E1

v =

h

En tal caso diremos que la interacción átomo-cuanto es un proceso resonante. En

este libro sólo consideraremos interacciones resonantes.

Por brevedad, de ahora en adelante llamaremos fotón a un "cuanto de radiación

electromagnética". El término fotón fue introducido por Einstein al estudiar el

efecto fotoeléctrico.

El primer proceso de interacción átomo-fotón que veremos es el proceso de

absorción, que se muestra esquemáticamente en la figura I.4. Consiste en la

interacción entre un fotón y un átomo que inicialmente se encuentra en su estado

base. El resultado de esta interacción es que el átomo "absorbe" al fotón y usa su

energía para pasar a su estado excitado.

Figura I.4. Absorción

El siguiente proceso importante de interacción átomo- fotón es el proceso de

emisión espontánea, el cual se muestra esquemáticamente en la figura I.5. Ahora

tenemos un átomo ya excitado inicialmente, que en forma espontánea (y

generalmente en un tiempo breve, del orden de 10-8 segundos) pasa a su estado

base emitiendo en el proceso un fotón con energía igual a la diferencia de energía

entre los dos estados. El fotón se emite en una dirección totalmente aleatoria.

Figura I.5. Emisión espontánea

Finalmente, el otro proceso importante de interacción átomo-fotón es el proceso

de emisión estimulada. Su existencia fue propuesta por Albert Einstein en 1917 y

es el proceso fundamental gracias al cual existe el láser. La figura I.6 muestra

esquemáticamente tal proceso. En él tenemos la interacción entre un fotón y un

átomo que inicialmente se encuentra en su estado excitado. Como resultado de

esta interacción el átomo pasa a su estado base emitiendo en el proceso un fotón

que tiene las mismas características de dirección y de fase que el fotón inicial. Por

lo tanto, decimos que la radiación electromagnética que resulta es coherente.

Figura I.6. Emisión estimulada

Podemos realmente afirmar que el germen que dio origen al desarrollo del láser

fue dado a la vida cuando este fenómeno de "emisión estimulada" fue propuesto.

De hecho, la palabra láser es el acrónimo de la expresión en inglés Light

Amplification by Stimulated Emission of Radiation, que en español podemos

traducir como "amplificación de la

luhttp://omega.ilce.edu.mx:3000/sites/ciencia/volumen2/ciencia3/105/htm/sec_5.ht

mz por emisión estimulada de radiación".JORGE FLORES VALDÉS

NÚMEROS CUÁNTICOS n, l, ml

Cuando se resuelve la Ecuación H =E para encontrar la función de onda

(x,y,z) y describir los orbitales, resulta que muchas soluciones existen de modo

que cada una presenta números cuánticos que describen las propiedades de

estos orbitales:

Número Cuántico Principal n que puede adquirir los valores n=1,2,3.....

Este número cuántico se relaciona directamente con el tamaño y la energìa

del orbital. A medida que n crece, el orbital es más grande y el electrón que

lo ocupa, permanece más tiempo alejado del núcleo. Un aumento en n

implica entonces un aumento en la energía del orbital. Este número

cuántico corresponde al que Bohr planteó en su modelo para los orbitales

esféricos.

Número Cuántico azimutal l, adquiere los valores enteros desde 0 hasta

n-1, para cada valor de n. Este número l se relaciona directamente con la

forma que adquiere ese orbital en el espacio. La manera de usar su

significado en Quìmica, es definirlos mediante letras s, p, d, f, g. ..según el

valor que l adquiere:

Números Cuánticos Azimutales y sus correspondientes Orbitales Atómicos

Valor de l 0 1 2 3 4

Letra usada s p d f g

Número Cuántico Magnético ml adquiere "todos" los valores

comprendidos entre -l y +l , y se relaciona con la orientación del orbital en

el espacio, relativo a los otros orbitales en el átomo.

En resumen, estos números cuánticos pueden llegar a tomar valores como se

muestra a continuación:

n = 1, 2, 3, 4, 5, ...

l = 0, 1, 2, 3, 4, ... (n-1) para cada n

ml = -l, ..., 0, ...,+l ,

Números Cuánticos de los primeros cuatro niveles de Orbitales en el átomo

H

n l Designación

orbital ml N° de orbitales

1 0 1s 0 1

2 0

1

2s

2p

0

-1,0,+1

1

3

3

0

1

2

3s

3p

3d

0

-1,0,+1

-2,-1,0,+1,+2

1

3

5

4

0

1

2

3

4s

4p

4d

4f

0

-1,0,+1

-2,-1,0,+1,+2

-3,-2,-1,0,+1,+2,+3

1

3

5

7

Ejemplo

Para el nivel principal cuántico con n=5, determine las subcapas que tienen

diferentes valores de l. Indique la designación y cantidad para cada uno de ellos.

R Para n=5, los valores permitidos para l son 0, 1, 2, 3, 4. Así, la designación de

las subcapas son

l = 0 1 2 3 4

Designación 5s 5p 5d 5f 5g

Cantidad de niveles 1 3 5 7 9

5.1.2 IMPACTO DE LA FÍSICA NUCLEAR EN LA SOCIEDAD

El objetivo de la física nuclear es el entendimiento fundamental de los núcleos, que constituyen la parte central de los átomos, donde reside casi toda la masa de la materia común. Los físicos nucleares estudian cómo se formó esta materia, cómo se mantiene unida, cómo es su estructura, cómo interacciona en colisiones y cómo se transforma en el interior de las estrellas. La persecución de estos objetivos involucra desarrollar nuevas tecnologías e instalaciones avanzadas, educar científicos jóvenes, entrenar cuadros técnicos altamente especializados y contribuir a la empresa científica y tecnológica más amplia a través de las muchas intersecciones de la física nuclear con otras disciplinas. En este documento se describen brevemente algunos ejemplos selectos que dan una idea del impacto que la física nuclear ha tenido en la sociedad mundial y que ilustran la importancia de invertir recursos en las ciencias nucleares. Por necesidad, no es posible hacer justicia a toda la gama de aplicaciones existentes en el corto espacio disponible y se han tenido que omitir innumerables ejemplos importantes. Los ejemplos escogidos son relevantes en los campos de Ciencias Ambientales, Energía, Materiales y Física Médica.

Física Nuclear en México

La ciencia nuclear continúa empujando las fronteras del conocimiento y expandiendo las capacidades de la tecnología. Los frutos de las investigaciones fundamentales actuales indudablemente llevaría a nuevas aplicaciones tan importantes como las descritas aquí que seguramente cristalizarán en la medida en que exista una contraparte industrial interesada. En México existen varios grupos de investigadores de alto nivel con formación en física nuclear, producto de

una tradición de alrededor de cinco décadas en las que la física nuclear, tanto teórica como experimental, ha sido parte esencial y en ocasiones símbolo y motor de la ciencia mexicana, con una contribución fundamental a la formación de recursos humanos de muy alto nivel. Estos han sido a su vez investigadores y profesores universitarios, y muchos de ellos han evolucionado hacia áreas de interés fuera de la física nuclear, tanto en aplicaciones de los métodos de la física nuclear teórica a otros campos, como de las técnicas de la física nuclear experimental (p. ej. PIXE, RBS, channeling, etc.) a otras áreas. Puesto que la presencia de la física nuclear en el mundo es grande, como lo ilustran los ejemplos anteriores, es clara la importancia de que haya mucha gente que la entienda en toda sociedad, en particular en la sociedad mexicana.

La investigación por sí misma reviste una gran importancia en general, y muy particularmente en física nuclear. Se genera conocimiento que a corto o mediano plazo se convierte en dinero. Producir investigación básica es una condición necesaria para poder generar en el futuro nuevos conocimientos, nuevas aplicaciones, nuevas tecnologías. Dentro de la física nuclear teórica, la comunidad mexicana ha hecho contribuciones de gran importancia mundial en estudios de estructura nuclear, introduciendo métodos originales de cálculo y desarrollando modelos nucleares novedosos. Los grupos experimentales, por su parte, se mantienen a la vanguardia en campos de actualidad tales como reacciones nucleares con haces nucleares radiactivos (de importancia en estudios de estructura nuclear y en astrofísica nuclear), reacciones nucleares con iones pesados a energías bajas e intermedias y desarrollo de métodos originales de detección. Entre algunos de los físicos nucleares mexicanos se comparten intereses con áreas relacionadas, tales como la Física de radiaciones, la aplicación de diferentes técnicas nucleares y la física médica.

Es importante que se aporten los recursos necesarios para que el país no quede al margen de los avances actuales en física nuclear.

PROBLEMAS DE FÍSICA NUCLEAR

Se sabe que al medir con precisión la masa que corresponde al núcleo de un

átomo, resulta siempre que la masa de dicho núcleo es inferior a la suma de las

masas de los nucleones que lo forman. ¿A qué equivale este defecto de masa?

Razona la respuesta. (P.A.U. Jun 92)

¿Cuál es la diferencia fundamental entre fisión y fusión nuclear? Razona la

respuesta.

(P.A.U. Jun 92)

Cuestión: Analogías y diferencias entre la fisión y fusión nuclear. (P.A.U.

Jun 93)

Cuestión; La masa de los núcleos de los átomos no coincide exactamente con la

suma de las masas de los nucleones constituyentes. ¿Por qué? (P.A.U. Jun 93)

Cuestión: Los rayos g rompen el núcleo de 94Be para formar 8

3Li. ¿Qué otra

partícula se obtiene y por qué?

Rta.: 11H, conservación nº másico y carga (P.A.U. Sep 94)

Una muestra de material radiactivo contiene 500 millones de núcleos radiactivos.

La vida media es de 30 segundos. Determinar:

El número de núcleos radiactivos que existen en la muestra después de 15

segundos.

La constante , de decaimiento exponencial, o constante radiactiva del núcleo.

Rta.: 300 millones; 0’033 s-1 (P.A.U. Jun 92)

Un miligramo de 27

60

Co se desintegra de acuerdo con la reacción

27

60

28

60

1

0

0

0

Co Ni e

siendo el periodo de semidesintegración igual a 5´3 años. Hallar

la energía desprendida

el número de desintegraciones por segundo en el momento inicial.

Datos mCo =59’919010 ·u , mNi= 59’915439·u ; me=5’486·u siendo u= u.m.a.=

1’66·10-27 kg y velocidad de la luz en el vacío, c= 3’00·108m·s-1

Rta. : 4’539·106 J ; 4’16·1010 átomos/s (P.A.U. Jun96)

Sitúase un detector de radiactividade fronte a unha mostra radiactiva que posúe

un periodo de semidesintegración de 60 s. No instante t= 0 o detector marca unha

velocidade de desintegración de 2000 contas/s . Calcular a) a constante de

desintegración ou constante radiactiva . E b) a velocidade de desintegración ó

cabo dun minuto.

Rta: a) = 1'16·10 -2 s -1; b) A = 1000 contas/s. (P.A.U. Junio 98)

Se dispone de 1 mol de P32 radiactivo, cuyo período de semidesintegración es de

14'6 días . a) ¿ Cuántas desintegraciones por segundo se producen?. B) ¿Cuántos

días tardará en desintegrarse el 90 % del material?

Rta : = 5'5 ·10 -7 s -1; b) t=48'5 días ( P.A.U Junio 99)

5.2 MECANICA RELATIVISTA

5.2.1 TEORIA ESPECIAL DE LA RELATIVIDAD

Albert Einstein publicó en 1905 la Teoría especial de la relatividad, que sostiene

que lo único constante en el universo es la velocidad de la luz en el vacío y todo lo

demás (velocidad, longitud, masa y paso del tiempo) varía según el marco

referencial del observador. La teoría resolvió muchos de los problemas que habían

preocupado a los científicos hasta entonces. La famosa ecuación resultante de la

teoría E = mc2 establece que la energía (E) es igual a la masa (m) por la velocidad

de la luz (c) al cuadrado.

-Masa y energía

Einstein estableció la ecuación E = mc2 (donde E es energía; m, masa; y c, la

velocidad constante de la luz) para explicar que masa y energía son equivalentes.

Hoy se sabe que masa y energía son formas distintas de una misma cosa que

recibe el nombre de masa-energía. Si la energía de un objeto disminuye una

cantidad E, su masa también se reduce una cantidad igual a E/c2. Pero la masa-

energía no desaparece, sino que se libera en forma de la llamada energía

radiante.

-Espacio-tiempo

Doscientos años antes de que Albert Einstein formulara sus teorías sobre la

relatividad, el matemático inglés Isaac Newton sugirió que el espacio y el tiempo

eran absolutos (fijos) y que el primero estaba totalmente separado del segundo.

Según la teoría de la relatividad, sin embargo, el tiempo y las tres dimensiones del

espacio (longitud, altura y profundidad) constituyen un marco de cuatro

dimensiones que recibe el nombre de continuum espacio-temporal.

-Longitud relativa

El físico irlandés George Fitzgerald sugirió que la materia se contrae en la

dirección de su movimiento. Por ejemplo, desde el punto de vista de un

observador estático un cohete que viajara casi a la velocidad de la luz parecería

más corto que si estuviera estático, aunque los ocupantes no notarían diferencia.

Einstein demostró que cualquier objeto que viajara a la velocidad de la luz se

encogería hasta una longitud cero.

-Tiempo relativo

La teoría especial de la relatividad sostiene que el tiempo no es absoluto (fijo).

Según Einstein, el tiempo de un objeto visto por un observador externo pasa más

lentamente a medida que aumenta su movimiento lineal, lo que se ha demostrado

con relojes atómicos sincronizados: mientras uno permanece en la Tierra, el otro

es sometido a un viaje muy rápido (por ejemplo, en un reactor); al compararlos, el

estacionario está algo más avanzado que el móvil. Einstein puso de ejemplo la

famosa paradoja de los gemelos, en la que se explica que un hombre viaja al

espacio casi a la velocidad de la luz dejando en la tierra a su hermano gemelo. Al

volver en la tierra han pasado 50 años pero para el viajero solo han pasado unos

20.

5.2.2 TEORÍA DE LA RELATIVIDAD GENERAL.

Albert Einstein (1879-1955) formuló su teoría general de la relatividad. Einstein

demostró que el espacio es finito pero ilimitado, como si se tratara de un universo

bidimensional que tuviera la forma de la superficie de una esfera: sería finito, pero

no tendría límites. Ese universo finito pero ilimitado descrito por Einstein era, en

principio, estático aunque de hecho podía ser objeto de un movimiento de

expansión o contracción. Esta teoría explicaba tambien que los efectos de la

gravedad y la aceleración son indistinguibles y por lo tanto equivalentes. También

explicaba que las fuerzas gravitatorias están vinculadas a la curvatura del espacio-

tiempo. Mediante un modelo matemático, Einstein demostró que cualquier objeto

flexiona el espacio-tiempo que lo rodea. Si tiene una masa relativamente grande,

como una estrella, la curvatura que produce puede cambiar la trayectoria de todo

lo que pase cerca, incluso de la luz.

Todo esto significa que todo objeto con masa produce o genera gravedad hacia los objetos que le rodean, generalmente cuanto más grande es la masa, más gravedad produce. Este hecho se rompe ante la presencia de un agujero negro o ante una estrella de neutrones cuyas masas son muy pequeñas sin embargo la fuerza de la gravedad es enorme. La teoría general de la relatividad sostiene que las fuerzas gravitatorias son consecuencia de la curvatura del espacio-tiempo. Al pasar cerca de un objeto masivo, la luz describe una trayectoria curva al seguir la curvatura del espacio-tiempo causada por la masa del objeto. Los agujeros negros tienen una concentración de masa tal que la curvatura del espacio-tiempo a su alrededor es tan pronunciada que ni la luz puede escapar de ellos

Con el nombre de Teoría de la Relatividad se engloban generalmente dos cuerpos

de investigación en ciencias físicas, usualmente conectadas con las

investigaciones del físico Albert Einstein: su Teoría de la Relatividad Especial y su

Teoría de la Relatividad General.

La primera, publicada en 1905, trata de la física del movimiento de los cuerpos en

ausencia de fuerzas gravitatorias. La segunda, de 1915, es una teoría de la

gravedad que reemplaza a la gravedad newtoniana pero se aproxima a ella en

campos gravitatorios débiles. La teoría general se reduce a la especial en

ausencia de campos gravitatorios.

Conceptos principales

La idea esencial de ambas teorías es que dos observadores que se mueven

relativamente uno al otro con gran velocidad a menudo medirán diferentes

intervalos de tiempo y espacio para describir las mismas series de eventos. Sin

embargo, el contenido de las leyes físicas será el mismo para ambos

observadores.

Artículo principal: Teoría de la Relatividad Especial

La Teoría de la Relatividad Especial, también llamada Teoría de la Relatividad

Restringida, publicada por Einstein en 1905, describe la física del movimiento en el

marco de sistemas de referencia inerciales. Estos conceptos fueron presentados

anteriormente por Poincaré y Lorentz, que son considerados también como

originadores de la teoría.

[editar] La relatividad general

Esquema de la curvatura del espacio-tiempo alrededor de una masa.

Artículo principal: Teoría de la Relatividad General

T.T.'os <e-o>La relatividad general fue publicada por Einstein en 1915 (presentada

como conferencia en la Academia de Ciencias prusiana el 25 de noviembre de

1915). Debe notarse que el matemático alemán David Hilbert escribió e hizo

públicas las ecuaciones de la covariancia antes que Einstein. Ello resultó en no

pocas acusaciones de plagio contra Einstein, pero probablemente sea más

cercano a la realidad afirmar que ambos fueron los co-creadores de la relatividad

general. Esta teoría introduce una ecuación que precisa, mejora y reemplaza la ley

de gravedad de Newton. Utiliza las matemáticas de la geometría diferencial y los

tensores a fin de describir los efectos de la interacción gravitatoria, también

llamada gravitación o gravedad. Se trata de una perspectiva que considera que

todos los observadores son equivalentes, no sólo aquellos que se mueven a

velocidad uniforme sino también aquellos que aceleran y retardan sus

movimientos. Las leyes de la relatividad general son las mismas para todos los

observadores, incluso cuando varían sus movimientos recíprocos.

En la relatividad general la gravedad no sigue siendo vista como una fuerza (como

se la conceptuaba en la ley de gravedad de Newton) sino como una consecuencia

de la curvatura del espacio-tiempo. La relatividad general no puede conceptuar

fuerzas, porque es una teoría (o perspectiva) geométrica. La misma postula que la

presencia de masa o energía «curva» al espacio-tiempo, y esta curvatura afecta la

trayectoria de los cuerpos móviles e incluso la trayectoria de la luz.

http://es.wikipedia.org/wiki/Teor%C3%ADa_de_la_relatividad

Postulkados Y consecuencias

La ciencia específica básica de la naturaleza es la Física; y son la Teoría de la relatividad y la Teoría cuántica las que dominan la Física actual. Sin embargo, a un siglo de sus enunciados fundamentales, persiste el clima controversial en torno de ellas; como lo ha sido desde sus comienzos. La discusión atañe a la propia lógica de las teorías: para algunos no hay nada que objetar, mientras que para otros todo es ilógico de raiz. Nadie que conozca un mínimo de ellas puede abstrarse de esta discusión; por demás apasionante, pues se trata, nada menos, del poder humano sobre la naturaleza.

Nuestra intención, como la de todos, es también contribuir a despejar este hambiente enrarecido; y, si no es mucho pedir, encauzar la discusión hacia la fuente problemática de la cual procede la Física actual.

Un estudio de la Teoría de la relatividad (parte de un estudio mayor en curso; cuyos resultados confío publicar en fecha no lejana, si la vida y la sociedad me lo permiten) nos conduce a la siguiente interpretación, sinópticamente expuesta.

La Teoría de la relatividad parte de dos postulados:

I)- El principio de la relatividad.

Dos sistemas(K, K') pueden hallarse en reposo o en movimiento rectilíneo y uniforme, uno respecto del otro, gobernados por leyes idénticas. Por ende, la determinación del estado posicional de cada uno exige la consideración de un referente; es decir, de otro respecto del cual reposa o se mueve.

II)- La ley de la velocidad constante de la luz.

Hecha la medición desde un sistema(K), con los patrones de medición de este sistema, la medida de la velocidad de la luz(l) en el vacío es constante(C), sea que su fuente(f) repose o se mueva, se aleje o se acerque, respecto de dicho sistema(K). Por lo tanto, la velocidad(e/t) de la luz en el vacío no varía respecto de K, no obstante cualquier variación posicional de su fuente respecto de K.

Esta ley es indiferente a la velocidad de la luz en sentidos opuestos respecto de K. O mejor dicho, es indiferente al sentido del desplazamiento de la luz. Sin

embargo, lo más natural es suponer que es la misma en sentidos opuestos, al recorrer las mismas condiciones. Aun si el medio total de la trayectoria no es homogéneo.

La independencia de la velocidad de la luz respecto de su fuente(f) parece corroborar la Teoría ondulatoria de la luz( sugerida por el holandés Huyghens en 1690). Su comportamiento se asemeja al de las ondas, como las del agua o el aire, por ejemplo. Estas ondas viajan con velocidades independientes de su fuente de origen. Lo que nos lleva a suponer un medio de propagación de las ondas-luz, denominado tradicionalmente "éter".

Si la luz es onda, existe un medio de su propagación( como son el agua y el aire para sus correspondientes ondas) de extensión universal: através del "vacío" y de los cuerpos, como el aire, el vidrio, el agua, etc., através de los cuales puede desplazarse la luz.

Vale recordar que la Teoría ondulatoria explica satisfactoriamente numerosos fenómenos empíricos; uno de los cuales es el espectro de franjas claras y oscuras, supuestas resultantes de la interferencia entre las ondas-luz.

Es mas, la Teoría electromagnética(1865) de Clerk Maxwell, unificadora de los conocimientos acerca de la electricidad y la magneticidad en una teoría del campo electromagnético y precursora de los grandes adelantos tecnológicos del siglo XX, incluye la hipótesis de la naturaleza ondulatoria de la radiación electromagnética de la cual es una especie la luz, cuya velocidad es precisamente una constante(C).

____________

Ahora bien, ¿ son compatibles estos postulados?

Si la velocidad de una luz es C respecto de K, en un sentido cualquiera, sería diferente de C respecto de K', que se mueve rectilínea y uniformemente respecto de K; por más que K atraviese K'.

Esto no parece contradecir al Principio de la relatividad; asi como no lo hace el hecho de que la velocidad de un cuervo que vuela por la corriente de aire que atraviesa al tren(con sus puertas delantera y trasera abiertas) sea, respecto del tren(K'), diferente a su velocidad(w) respecto del aire y la estación(K).

Además, si unas ondas del aire de la estación, aire que atraviesa el tren(como un viento respecto de éste), se desplazan a determinada velocidad constante respecto de la estación(K), pero, simultáneamente, a velocidades diferentes, y diferente en sentidos contrarios, respecto del susodicho tren(K'), sin contradecir el Principio de la relatividad, ¿por qué si lo harían las ondas del éter?

Porque, tratándose de una Ley(C), una misma luz(l), y cualquier otra, debe cumplirla respecto de ambos sistemas a la vez, tal como se cumplen las demás Leyes físicas de acuerdo al Principio de la relatividad.

Tesis que es corroborada por el experimento de Michelson y Morley, y otros semejantes, interpretados según la Teoría ondulatoria. Más aun, ¡no se han detectado velocidades diferentes en sentidos diferentes respecto de K', no obstante su movimiento respecto del éter-K.

Si la luz se desplaza a lo largo de dos brazos perpendiculares terrestres, iguales, en ida y vuelta, a diferentes velocidades en sentidos diferentes respecto de estos brazos, como sugiere la hipótesis del éter luminífero(K), el espectro de franjas producidas a su regreso por la interferencia de las ondas-luz se desplazaría en magnitud perceptible con la modificación del emplazamiento de los brazos respecto de la dirección del movimiento traslacional de la Tierra(K') respecto del

éter universal(K). Pero, en el experimento crucial(1887) llevado a cabo por Michelson y Morley, y en otros después, no se ha detectado nada atribuible a tiempos y velocidades de la luz diferentes, según su sentido, respecto de la Tierra(K'). El tiempo de recorrido transversal es igual al tiempo de recorrido paralelo; por ende, la velocidad de la luz sería la misma respecto de K' y respecto de K-éter de la Teoría ondulatoria. Esquema 4:

Esto equivale a la conjunción utilizada por Einstein de la Ley de la velocidad constante y el Principio de la relatividad en el sentido de que si la velocidad de una luz en el vacío es siempre C respecto de un sistema (K), a la vez la velocidad de la misma luz debe ser también siempre C respecto de otro(K'), en cualquier dirección, en movimiento respecto del primero(K).

¿Qué implica ello?

Sean los sistemas K y K' simultáneos(coexistentes).

K' se desplaza rectilínea y uniformemente, a velocidad v, respecto de K.

En K' se halla emplazado el brazo A_B, de extensión idéntica a la distancia A_B en K.

Una luz recorre una trayectoria de ida y vuelta respecto de este brazo, a velocidad C, tanto en la ida como en la vuelta. Velocidad que, supuestamente, también se cumple con la misma luz respecto de K.

Por tanto, si la distancia que recorre la luz respecto de K'(brazo) :e' es diferente a la distancia que recorre respecto de K:e, ¡el tiempo(t') que tarda en recorrer la distancia e' sería diferente al tiempo(t) que tarda recorrer la distancia e, a la vez! Entonces, así como resulta la medida C con un reloj de K, debe resultar la medida C con el reloj de K'.

No se trata de inventar una hipótesis sino de revelar lo implícito entre el resultado experimental de Michelson-Morley y la Teoría ondulatoria de la luz, o entre el Principio de la relatividad y la Ley de la velocidad constante de la luz. Esquema 5:

x :donde y cuando la luz recorrió 1/2 de su recorrido anterior(ida) respecto de K, y A_B(K') también recorrió 1/2 de su recorrido anterior.

Total e = eida vuelta Total e'= e'ida+ e'vuelta

e > e' y e/t = C = e'/t' por lo tanto, en totales, t > t'

Si v fuese mayor( pero aún menor que C), la diferencia de t y t' sería mayor. Si v=C, entonces e'=0 y t'=0.

Duración del sistema:

La lentitud del reloj de K' (t'<t) implica que cada fase suya dura(T') más que su equivalente en K. El reloj total de K' es lento; lo que se traduce como dilatación del tiempo en K'. Dicho de otro modo, su duración en K'(T') sería igual a la dilatación, o prolongación, de su duración en K(T). Dilatación que debe ser un producto de la duración en K por un factor(1/q) de dilatación.

T' > T . T'= T/q

* t y t' simbolizan tiempo de recorrido de la luz.

* T y T' simbolizan duración de fases.

* q es un factor de dilatación.

Longitud de A_B :

La longitud de A_B según el sistema K es L.

La longitud del sistema K' es L' .

La longitud puede medirse considerando la velocidad(v) de la barra A_B y el tiempo que tarda en pasar un extremo de la barra después que pasó el otro frente al mismo punto. Esto se cumple en el instante en que A de K' pasa frente a B de K. Es evidente, por los esquemas 5 y 6, que es el momento que el reloj de K' marca un intervalo(t') menor a lo que marca(t) el reloj de K: t' < t . Esquema 6 :

Por tanto, la longitud de A_B sería...

según K: según K':

L = v . t L' = v. t'

L' < L

L' = L.q

* q es el factor de contracción. Si la contracción espacial y la dilatación temporal obedecen a la misma causa, o condicionante, el factor representativo debe ser el mismo.

Esto contradice a la premisa de la identidad entre las distancias A_B en K y K' (esquema 5).

Así tenemos ¡tiempos diferentes al mismo tiempo, y espacios diferentes entre espacios idénticos!

Que un reloj es lento a la vez- es decir al mismo tiempo-que el otro es rápido no es ningún absurdo, pero sí lo es lo que representan: ¡tiempos diferentes al mismo tiempo!

La contradicción es descomunal:¡ K y K' son sistemas simultáneos, pero con tiempos diferentes!

Si sólo se tratase de las medidas el caso no sería tan grave, aunque nadie entiende que los relojes de un sistema marchen más rápido o más lento que los del otro según la dirección de la luz. Mas, aquí se trata del tiempo mismo si se trata de la velocidad misma, y no solo de su medida. El espectro de interferencias de ondas-luz, en el experimento de Michelson y Morley, y cualquier otro, no obedece a medidas sino a movimientos, y sus velocidades, en sí. Y la Ley de la velocidad constante no sólo se refiere a la medida de la velocidad, sino que de su constancia se infiere la constancia de la velocidad en sí.

Hasta aquí aún no hay concordancia plena con el Principío de la relatividad. Pues este principio se basa en la identidad de las leyes que gobiernan los fenómenos físicos respecto de K y K' en movimiento rectilíneo y uniforme, uno respecto del otro. Entonces, los efectos espaciales y temporales deben ser relativos, según el Principio de la relatividad; lo cual implica duplicar la contradicción dentro de otra mayor: lo que ocurre con K' sólo ocurre relativamente: respecto de K; pues todo se debe a su movimiento, y se mueve respecto de lo exterior, en este caso respecto de K. Por lo mismo, debemos considerar que análogamente le ocurre a K, pero respecto de K'; como que se mueve respecto de K'.

Einstein: -" ...un observador en reposo en el SC-sistema de coordenadas-inferior encontraría que un reloj en movimiento cambia su ritmo. Al mismo resultado llegaría un observador en reposo en el SC superior, al mirar un reloj en movimiento relativo a su sistema;...pues las leyes de la naturaleza deben ser ser las mismas en ambos SC en movimiento relativo."(Física. Aventura del pensamiento. Pág.232).

-"No solo nos es posible imaginnar que un reloj en movimiento modifique su ritmo, sino que una barra en movimiento cambie su longitud, siempre

que dichas variaciones sean las mismas para todos los SC inerciales."(Ibídem.¨Pág.223). Esquema 7:

¿Cómo entender esto?

No se tratarían de perpectivas visuales, como parecen por los esquemas y la inclusión permanente del observador en la disertación de Eisntein, sino de fenómenos independientes de la visión, debidos al movimiento de los sistemas. Los sistemas físicos se mueven aunque no se les observen.

La conclusión relativista es una paradoja impresionante. Se trata de una contradición lógica. Ésta puede presentarse en versiones diversas; una, por demás notable, es la de los gemelos: hallándose uno en K y el otro en K', cada cual sería mayor que el otro. No solo en edad, también en dimensión espacial. ¡ Es más, como uno puede llegar a morir de viejo, el otro puede aún estar vivo respecto del muerto, y viceversa!

Pero, ¿cuál es el error cometido en el procedimiento de su concepción por el cual se ha caido en este absurdo? Einstein no inventó el Principio de la relatividad, ni la Ley de la velocidad constante de la luz, ni la Teoría ondulatoria, sólo dedujo las consecuencias teóricas relativistas de las premisas que la Física ya había concebido.

Einstein: "Con respecto a a teoría de la relatividad no se trata en absoluto de un acto revolucionario, sino del desarrollo natural de una línea que se remonta a siglos y siglos..."(La Teoría de la relatividad. L.Pearce Williams. Alianza Editorial. Madrid, 1981. Pág. 117).

No es nada nuevo en la ciencia el que un procedimiento lógicamente correcto conduzca a un absurdo. Y cuando ocurre, no queda sino re-examinar las premisas de su construcción. Es una tarea cualitativa que no puede ser ajena a la Filosofía natural.

¿ Y si sustituimos la Teoría ondulatoria por la Teoría cuántica, o corpuscular, según la cual la unidad de luz es una especie de corpúsculo(fotón)? ¡La Teoría cuántica está plagada también de paradojas, tan o más absurdas que la Teoría de la relatividad! Vale recordar que Einstein contribuyó decisivamente en la construcción de los fundamentos de la Teoría cuántica(que le valieron para ganar el Premio Nóbel de Física de 1921), sin embargo, ni él, ni Max Planck(el fundador de la teoría), nunca quedaron conformes con las consecuencias interpretativas o lógicas de la misma.

Además, quedaría la Ley de la velocidad constante de la luz. De esta ley y el

Principio de la relatividad es inferible la paradoja relativista, aun sin la Teoría

ondulatoria.Salvo que la corrección de una implique la corrección de la otra. Como

parece.

5.3 COSMOLOGIA

Principios Cosmológicos:

El científico, aunque no necesariamente el poeta o el teólogo, comienza su

estudio del Universo asumiendo que las leyes físicas, medidas localmente en el

laboratorio, tienen una aplicación más general.

Si los experimentos comprueban que esta suposición es incorrecta, entonces uno

procede a explorar las generalizaciones de la física local.

En este espíritu, la cosmología, la ciencia de los estudios del Universo, se

desarrolla por extrapolación a lugares remotos en el espacio y el tiempo, de leyes

físicas verificadas localmente, que puedan ser comprobadas con las modernas

técnicas astronómicas.

A diferencia de otras ramas de la ciencia, la cosmología es única en que sólo hay

un Universo disponible para el estudio. No podemos ajustar un parámetro,

modificar otro, y terminar con un sistema diferente para experimentar. No

podremos nunca saber qué tan único es nuestro Universo, porque no tenemos

otro Universo para compararlo. El Universo significa todo lo que es o será jamás

observable, así que jamás podremos esperar ver otro Universo.

Sin embargo, podemos imaginar otros posibles Universos. Podríamos tener un

Universo sin galaxias, estrellas o planetas. Es innecesario decir que el hombre no

podría existir en tal Universo

El hecho mismo de que nuestra especie haya evolucionado en el planeta Tierra

impone restricciones significativas sobre las posibles formas en que nuestro

Universo ha evolucionado. De hecho, algunos cosmólogos piensan que esta

podría ser la única forma en que podremos abordar asuntos tales como: Por qué

el espacio tiene tres dimensiones?, o, Por qué el protón tiene una masa que es

precisamente 1.836 veces mayor que la del electrón?

Si alguno de estos no fuera el caso, nosotros ciertamente no estaríamos aquí.

Podemos llevar el argumento más allá: Nuestra actual existencia requiere que el

Universo halla tenido tres dimensiones espaciales, y el protón una masa de 1.836

electrones. A esta conclusión se le llama "Principio Cosmológico Antrópico":

Particularmente, que el Universo debe ser compatible con el origen y desarrollo de

vida inteligente.

Por supuesto, esto no es una explicación, y el principio antrópico no tiene

significado físico alguno. Más bien, limita nuestras posibilidades. Podría existir una

multitud de Universos radicalmente diferentes sobre los que no tenemos que

preocuparnos.

Es inevitable que un astrónomo estudie objetos remotos en el tiempo, así como en

el espacio; La luz viaja una distancia de 300.000 Kilómetros en un segundo, o diez

millones de millones de Kilómetros en un año.

La estrella más cercana, Alfa Centauri, está a 4,3 años-luz de nosotros: La vemos

como era hace más de cuatro años. La galaxia más cercana comparable con

nuestra Vía Láctea está a 2 millones de años-luz de distancia: Vemos la Galaxia

de Andrómeda, un objeto de ojo desnudo bajo un cielo oscuro, como era cuando

el homo sapiens todavía no había evolucionado.

Un telescopio grande es una máquina del tiempo que puede llevarnos parte del

camino hacia la creación, para examinar regiones de las que la luz emanó hace

más de cinco mil millones de años, antes de que nuestro Sol se hubiera formado.

Para el cosmólogo, el asunto de la creación es inevitable.

Hay tres posibilidades que uno podría concebir para la creación del Universo:

1. El comienzo fue un estado singular, no descriptible por la ciencia física. Un escéptico podría preguntar, Qué hacía Dios antes de que Él creara el Universo?

La respuesta apócrifa es que Él estaba preparando el Infierno para la gente que pudiese hacer tales preguntas (atribuida a San Agustín).

2. El comienzo fue el estado más simple y permanente imaginable, conteniendo dentro de sí las semillas de la futura evolución. Esta es la posición moderna, y uno busca las leyes físicas correctas que describan este estado inicial.

3. No hubo creación, y el Universo es inalterable y de edad infinita.

Podemos tratar de distinguir entre las últimas dos posibilidades, las únicas dos

opciones sobre las que las herramientas científicas podrían ser utilizadas.

Las anteriores consideraciones sobre la simplicidad de una teoría exitosa, están

incorporadas en un simple principio que sirve de guía para construir un modelo del

Universo. Hay varias versiones de tal principio cosmológico.

El "Principio Cosmológico" afirma que el Universo, en promedio, se ve igual

desde cualquier punto. Es motivado por el argumento de Copérnico sobre que la

Tierra no está en una posición central, preferida.

Si el Universo es localmente isotrópico, visto desde cualquier punto, es por lo tanto

tambien uniforme.

Así que el principio cosmológico afirma que el universo es aproximadamente

isotrópico y homogéneo, visto por cualquier observador estático. Esto permite la

posibilidad de muy diversos estados pasados y futuros para el Universo.

Una versión más fuerte, el "Principio Cosmológico Perfecto", va más allá: El

Universo parece el mismo desde todo punto y desde todos los tiempos.

En otras palabras, no pudo haber evolución: El Universo debe siempre estar en el

mismo estado, al menos en un promedio sobre tiempos largos.

Finalmente, el "Principio Cosmológico Antrópico" argumenta que el Universo

debe haber sido construido como para haber conducido al desarrollo de la

inteligencia.

Cosmología del Estado Estacionario:

"Steady State Universe" (Universo en Estado Estacionario, Bondi, Gold, y Hoyle,

1949) postula la creación de materia a partir del vacío, para satisfacer el Principio

Cosmológico Perfecto (la densidad es constante y el Universo parece el mismo, en

promedio sobre grandes volúmenes y tiempos). Este postulado fue motivado por

un aparente problema de escala de tiempo.

Hubble encontró que el Universo de galaxias se expandía con una velocidad dada

por: V = H0 * R, que aumentaba sistemáticamente con la distancia R a la galaxia.

H0 es la tasa de expansión de Hubble.

Esto significa que si no ha habido aceleración o deceleración, toda la materia debe

haber estado amontonada al inicio de la expansión; hace un tiempo R/V o 1/H0.

Se encontró que la tasa de expansión de Hubble actualmente era H0= 500

km/s/Mpc en el trabajo original de Hubble.

Esto significa que 1/H0 = 2 mil millones de años, era un límite superior para la

edad del Universo.

Uno podría comparar esto con la técnica de fechado por radioactividad de las

rocas antiguas, p. ej. U238 -> Pb205 con una vida-media de 4x109 años.

Medidas en diferentes muestras de rocas y meteoritos, las actuales abundancias

de isótopos del plomo permiten un estimado de su edad. Inferimos 4.6x109 años

para las más antiguas rocas meteóricas o Lunares (4.600 millones de años).

La teoría de evolución estelar, con fusión de hidrógeno en helio como fuente de

energía, produce la edad de los cúmulos globulares, las estrellas más antiguas en

nuestra Galaxia.

El punto de quiebre en la secuencia principal denota la duración de la era

observada de "quemado" de hidrógeno, mientras que la rama horizontal en el

diagrama H-R indica la posición de las estrellas que están "quemando" helio. La

edad inferida para ajustarse al diagrama H-R observado es 10x109 años (10 mil

millones de años).

La discrepancia entre la edad de Expansión Universal, por una parte, y las edades

de los meteoritos y estrellas por la otra, fue removida en los 1950s, cuando se

obtuvo un valor más preciso para H0.

El mejor valor moderno es H0 = 50 km/s Mpc, o 1/H0 = 20x109 años (20 mil

millones de años).

Las predicciones clave de la Cosmología del Estado Estacionario eran que:

Hubo y hay creación de un átomo de hidrógeno por metro cúbico cada 1010 años.

La creación se asume que ocurre a partir del vacío, violando radicalmente la ley de

conservación de la masa y energía.

Se esperaba que tambien se produjera antimateria, produciendo un fondo de

rayos gamma que resultaría de la ocasional aniquilación de protones y

antiprotones. No se quiere violar tambien otra ley fundamental, la ley de

conservación de la carga eléctrica. Por tanto otra posible forma de nueva materia

creada son neutrones. Estos decaen dejando gas caliente que emite rayos-X

difundiéndose por el Universo. Ni los esperados rayos gamma cósmicos, ni los

rayos-X, fueron observados, de modo que la teoría fue modificada para postular

creación sólo en densos núcleos que identificamos con los núcleos de las

galaxias.

No ha podido ocurrir evolución a grandes distancias.

La cuenta de fuentes de radio investigó esta predicción:

N(>f) es el número observado más brillantes que el flujo f, el cual, para una fuente

a una distancia d, con luminosidad L, está dada por f = L/4Pi d2. Así que la

distancia hasta la que es posible observar, en un sondeo limitado por flujo, de

fuentes con idéntica luminosidad L es d = (L/4Pi f)1/2.

Ahora bien, el número total de fuentes medidas en un sondeo de todo el cielo es

N=(4/3)Pi d3n, donde n es la densidad de la fuente.

El modelo del Estado Estacionario predice que n = constante, de manera que

N(>f) es proporcional a d3 o (L/f)3/2, prediciendo que al aumentar la sensibilidad del

sondeo (o al disminuir f), N(>f) debería aumentar como f-3/2 en el espacio

Euclidiano.

Las observaciones revelaron un aumento mucho más fuerte en la cuenta de

fuentes.

Los proponentes del modelo del Estado Estacionario en los 1950s argumentaron

que podríamos estar viviendo en un rincón muy local. Sin embargo, subsiguientes

identificaciones ópticas y determinaciones de distancia han mostrado que

principalmente las fuentes de radio son radio galaxias y quasares que están a

varios miles de millones de mega-parsecs de nosotros, demostrando que la

evolución debe estar ocurriendo sobre una escala del orden de 1010 años. Las

galaxias luminosas emisoras de radio eran mucho más frecuentes en el pasado

que lo que parecen ser actualmente.

El golpe final para la teoría del Estado Estacionario vino con el descubrimiento del

Fondo Cósmico de Microondas en 1964.

Este era evidencia directa de radiación originada en una fase densa y caliente del

Universo, como predijo la teoría del Big Bang. Está caracterizada por un espectro

de cuerpo negro apropiado para un cuerpo negro a 2,75 grados Kelvin. La

intensidad de la radiación un cuerpo negro tan frío, llega a un máximo en una

longitud de onda de 1mm, en la banda de microondas.

Para explicar tal radiación en un modelo de Estado Estacionario se requiere

postular la presencia universal de gramos de polvo milimétricos, que absorberían

un intenso campo de radiación producido por muchas galaxias excepcionalmente

luminosas, y lo re-irradiarían a la temperatura apropiada.

Esta interpretación es tan artificial, y requiere tantas conjeturas especiales, que es

considerada muy poco posible.

INVESTIGACION ACERCA DE LA COSMOLOGÍA

Alumno: Tomas Rossini

Profesora: Claudia Gonzalez

Estudio del Universo en su conjunto, en el que se incluyen teorías sobre su

origen, su evolución, su estructura a gran escala y su futuro. Al estudio más

específico del origen del Universo y de sus sistemas astronómicos como el

Sistema Solar, se le suele llamar cosmogonía.

Primeras teorías cosmológicas

Las teorías cosmológicas más antiguas datan del 4000 a.C., y son las de los

pueblos mesopotámicos, que creían que la Tierra era el centro del Universo y

que todos los demás cuerpos celestes giraban alrededor de ella. Algunos

clásicos como Aristóteles y el astrónomo griego Tolomeo, explicaban que las

estrellas se movían de noche porque estaban fijas en esferas cristalinas

rotatorias. El astrónomo griego Aristarco de Samos, alrededor del 270 a.C.,

sostenía que la Tierra gira alrededor del Sol. Sin embargo, debido sobre todo a

la autoridad de Aristóteles, el concepto de que la Tierra era el centro del

Universo permaneció inamovible hasta 1543, cuando el astrónomo polaco

Nicolás Copérnico publicó sus teorías en De revolutionibus orbium caelestium

(Sobre las revoluciones de los cuerpos celestes). Copérnico proponía un sistema

en el que los planetas giraban en órbitas circulares alrededor del Sol, el cual

estaba situado en el centro del Universo. Atribuía el nacimiento y la colocación

de las estrellas a la rotación de la Tierra sobre su eje. El astrónomo alemán

Johannes Kepler adoptó el sistema copernicano y descubrió que los planetas

giran en órbitas elípticas a velocidad variable, de acuerdo con tres leyes bien

definidas (conocidas desde entonces como leyes de Kepler). Galileo, uno de los

primeros en observar los planetas con un telescopio, también rechazó la idea de

Aristóteles de que la Tierra era el centro del Universo y se convirtió en un

defensor de la visión copernicana del mundo. El matemático y físico inglés Isaac

Newton demostró que las leyes de Kepler sobre el movimiento planetario podían

derivarse de las leyes generales del movimiento y de la gravitación que Newton

había descubierto, indicando así que estas leyes físicas eran válidas en todo el

Universo.

Distancias interestelares

Una idea de la escala de las distancias entre las estrellas fue proporcionada a

principios del siglo XIX por el astrónomo alemán Friedrich Wilhelm Bessel.

Descubrió que la cercana estrella 61 Cygni estaba unas 600.000 veces más

lejos de la Tierra que el Sol. En 1917 el astrónomo estadounidense Harlow

Shapley calculó que la galaxia de la Tierra, la Vía Láctea, tiene un diámetro de

unos 350.000 años luz; ésta fue la primera indicación del tamaño de nuestra

galaxia. Por desgracia, Shapley no consideró la absorción de la luz de las

estrellas por partículas de polvo en la Vía Láctea, lo que hace que los objetos

parezcan más oscuros y, por tanto, más lejos de lo que están en realidad. El

actual valor del diámetro de la parte visible de nuestra galaxia es de unos 30.000

parsecs (100.000 años luz). El astrónomo holandés Jan Hendrik Oort descubrió

que el Sol tarda 250.000 millones de años en completar una revolución en torno

al centro de nuestra galaxia y de esta forma pudo calcular que la masa de la Vía

Láctea es de unas 100.000 millones de veces la masa del Sol.

Hasta comienzos del siglo XX, los astrónomos no conocían con seguridad la

naturaleza de lo que describían como nebulosas espirales y elípticas; no podían

determinar si estaban dentro o fuera de nuestra galaxia. En 1924 el astrónomo

estadounidense Edwin Hubble logró descubrir estrellas individuales en alguno de

estos objetos, entre ellos, la famosa Andrómeda. Varias de estas estrellas eran

estrellas pulsantes, llamadas variables cefeidas. Midiendo su periodo de

pulsación, los astrónomos pueden determinar el brillo intrínseco de estas

estrellas. Comparando el brillo aparente de estas cefeidas con el brillo conocido

de las cefeidas cercanas, Hubble comprobó que los objetos que estudiaba

estaban fuera de la galaxia. Esto significaba que las miles de ‘nebulosas’

espirales y elípticas eran galaxias por derecho propio, externas a la Vía Láctea, y

que cada una de ellas contenía cientos de miles de millones de estrellas. Hubble

calculó que la distancia a la galaxia Andrómeda era de 900.000 años luz, cifra

después corregida a los 2,2 millones de años luz, cuando los astrónomos

descubrieron que las cefeidas estaban más lejos de lo que pensaron en un

principio.

Ley de Hubble

El astrónomo estadounidense Vesto M. Slipher, que estudió los espectros de las

galaxias, ya había observado en 1912 que, excepto en unos pocos sistemas

cercanos como la galaxia Andrómeda, las líneas espectrales se habían

desplazado hacia longitudes de onda mayores. Este desplazamiento en longitud

de onda, debido al efecto Doppler, mostraba que la mayoría de las galaxias se

alejaban de la Vía Láctea.

En 1929 Hubble comparó las distancias que había calculado para diferentes

galaxias con los desplazamientos hacia el rojo fijados por Slipher para las

mismas galaxias. Descubrió que cuanto más lejos estaba la galaxia, más alta era

su velocidad de recesión. A esta relación se la conoce como la ley de los

desplazamientos hacia el rojo o ley de Hubble; determina que la velocidad de

una galaxia es proporcional a su distancia. La relación entre la velocidad de

recesión de una galaxia y su distancia (la constante de Hubble) se calcula que

está entre los 50 y los 100 km/s por megaparsec (1 megaparsec equivale a

1 millón de parsecs).

Como parece que las galaxias retroceden en todas direcciones desde la Vía

Láctea, se podría pensar que nuestra galaxia es el centro del Universo. Sin

embargo, esto no es así. Imaginemos un globo con puntos uniformemente

separados. Al inflar el globo, un observador en un punto de su superficie vería

cómo todos los demás puntos se alejan de él, igual que los observadores ven a

todas las galaxias retroceder desde la Vía Láctea. La analogía también nos

proporciona una explicación sencilla de la ley de Hubble: el Universo se expande

como un globo.

Modelos estáticos y de expansión del Universo

En 1917 Albert Einstein propuso un modelo del Universo basado en su nueva

teoría de la relatividad general. Consideraba el tiempo como una cuarta

dimensión y demostró que la gravitación era equivalente a una curvatura

espacio-tiempo cuatridimensional resultante. Su teoría indicaba que el Universo

no era estático, sino que debía expandirse o contraerse. La expansión del

Universo todavía no había sido descubierta, por lo que Einstein planteó la

existencia de una fuerza de repulsión entre las galaxias que compensaba la

fuerza gravitatoria de atracción. Esto le llevó a introducir una ‘constante

cosmológica’ en sus ecuaciones; el resultado era un universo estático. Sin

embargo, desaprovechó la oportunidad de predecir la expansión del Universo, lo

que Einstein calificaría como “el mayor error de mi vida”.

El astrónomo holandés Willem de Sitter desarrolló en 1917 modelos no estáticos

del Universo. En 1922 lo hizo el matemático ruso Alexander Friedmann y en

1927 el sacerdote belga Georges Lemaître. El universo de De Sitter resolvió las

ecuaciones relativistas de Einstein para un universo vacío, de modo que las

fuerzas gravitatorias no eran importantes. La solución de Friedmann depende de

la densidad de la materia en el Universo y es el modelo de universo

generalmente aceptado. Lemaître también dio una solución a la ecuación de

Einstein, pero es más conocido por haber introducido la idea del ‘núcleo

primordial’. Afirmaba que las galaxias son fragmentos despedidos por la

explosión de este núcleo, dando como resultado la expansión del Universo. Éste

fue el comienzo de la teoría de la Gran Explosión sobre el origen del Universo

El destino del universo de Friedmann está determinado por la densidad media de

la materia en el Universo. Si hay relativamente poca materia, la atracción

gravitatoria mutua entre las galaxias disminuirá las velocidades de recesión sólo

un poco y el Universo se expandirá indefinidamente. Esto dará como resultado

un llamado ‘universo abierto’, infinito en extensión. Sin embargo, si la densidad

de la materia está por encima de un valor crítico estimado actualmente en

5 × 10-30 g/cm3, la expansión descenderá hasta detenerse y llegar a la

contracción, finalizando en el colapso gravitatorio total del Universo entero. Éste

sería un ‘universo cerrado’, finito en extensión. El destino de este universo

colapsado es incierto, pero hay una teoría según la cual explotaría de nuevo,

originando un nuevo universo en expansión, que se volvería a colapsar, y así

hasta el infinito. A este modelo se le llama universo oscilante o pulsante.

La edad del Universo

Si se conoce la tasa de expansión del Universo, se puede calcular su edad

determinando el tiempo que se requiere para alcanzar su tamaño actual. Éste

será de hecho un límite superior, cuando la expansión actual haya disminuido a

causa de la atracción gravitatoria mutua entre las galaxias. Los primeros cálculos

de la edad del Universo le concedieron un valor de sólo 2.000 millones de años.

Esta edad es bastante menor que la de 5.000 millones de años de la Tierra que

se ha deducido de la abundancia de ciertos isótopos radiactivos. Correcciones

posteriores en la escala de distancias han suprimido esta discrepancia. Se

descubrió, por ejemplo, que hay dos tipos de variables cefeidas, con brillo

intrínseco diferente. Esta confusión había ocasionado que Hubble subestimara la

distancia a la galaxia Andrómeda. Actualmente, se considera que la edad del

Universo está entre los 7.000 y los 20.000 millones de años y de este modo, no

se establece conflicto con la edad de la Tierra. Sin embargo, algunas

estimaciones chocan con la edad calculada de objetos astronómicos como los

cúmulos de estrellas, de forma que el problema de la edad del Universo sigue

siendo una cuestión importante para la cosmología actual.

La teoría del universo estacionario

En 1948, los astrónomos británicos Hermann Bondi, Thomas Gold y Fred Hoyle

presentaron un modelo completamente distinto de universo, conocido como la

teoría del universo estacionario. Consideraban insatisfactoria, desde el punto de

vista filosófico, la idea de un repentino comienzo del Universo. Su modelo se

derivaba de una extensión del ‘principio cosmológico’, que sostiene teorías

anteriores como el modelo de Friedmann. En su forma previa, más restringida, el

principio afirmaba que el Universo parece el mismo en su conjunto, en un

momento determinado desde cualquier posición. El ‘principio cosmológico

perfecto’ de Bondi, Gold y Hoyle añade el postulado de que el Universo parece

el mismo siempre. Plantean que la disminución de la densidad del Universo

provocada por su expansión se compensa con la creación continua de materia,

que se condensa en galaxias que ocupan el lugar de las galaxias que se han

separado de la Vía Láctea y así se mantiene la apariencia actual del Universo

(es la teoría de creación continua). La teoría del universo estacionario, al menos

en esta forma, no la aceptan la mayoría de los cosmólogos, en especial después

del descubrimiento aparentemente incompatible de la radiación de fondo de

microondas en 1965.

El descubrimiento de quásares también aportó pruebas que contradicen la teoría

del universo estacionario. Los quásares son sistemas extragalácticos muy

pequeños pero muy luminosos que solamente se encuentran a grandes

distancias. Su luz ha tardado en llegar a la Tierra varios cientos de miles de

años. Por lo tanto, los quásares son objetos del pasado remoto, lo que indica

que hace unos pocos de cientos de miles de años la constitución del Universo

fue muy distinta de lo que es hoy en día.

La teoría del Big Bang o de la Gran Explosión

En 1948 el físico ruso nacionalizado estadounidense George Gamow modificó la

teoría de Lemaître del núcleo primordial. Gamow planteó que el Universo se creó

en una explosión gigantesca y que los diversos elementos que hoy se observan

se produjeron durante los primeros minutos después de la Gran Explosión (Big

Bang), cuando la temperatura extremadamente alta y la densidad del Universo

fusionaron partículas subatómicas en los elementos químicos. Cálculos más

recientes indican que el hidrógeno y el helio habrían sido los productos primarios

de la Gran Explosión, y los elementos más pesados se produjeron más tarde,

dentro de las estrellas. Sin embargo, la teoría de Gamow proporciona una base

para la comprensión de los primeros estadios del Universo y su posterior

evolución. A causa de su elevadísima densidad, la materia existente en los

primeros momentos del Universo se expandió con rapidez. Al expandirse, el

helio y el hidrógeno se enfriaron y se condensaron en estrellas y en galaxias.

Esto explica la expansión del Universo y la base física de la ley de Hubble.

Según se expandía el Universo, la radiación residual de la Gran Explosión

continuó enfriándose, hasta llegar a una temperatura de unos 3 K (-270 °C).

Estos vestigios de radiación de fondo de microondas fueron detectados por los

radioastrónomos en 1965, proporcionando así lo que la mayoría de los

astrónomos consideran la confirmación de la teoría de la Gran Explosión.

Evolución del Universo

Uno de los problemas sin resolver en el modelo del Universo en expansión es si

el Universo es abierto o cerrado (esto es, si se expandirá indefinidamente o se

volverá a contraer).

Un intento de resolver este problema es determinar si la densidad media de la

materia en el Universo es mayor que el valor crítico en el modelo de Friedmann.

La masa de una galaxia se puede medir observando el movimiento de sus

estrellas; multiplicando la masa de cada galaxia por el número de galaxias se ve

que la densidad es sólo del 5 al 10% del valor crítico. La masa de un cúmulo de

galaxias se puede determinar de forma análoga, midiendo el movimiento de las

galaxias que contiene. Al multiplicar esta masa por el número de cúmulos de

galaxias se obtiene una densidad mucho mayor, que se aproxima al límite crítico

que indicaría que el Universo está cerrado. La diferencia entre estos dos

métodos sugiere la presencia de materia invisible, la llamada materia oscura,

dentro de cada cúmulo pero fuera de las galaxias visibles. Hasta que se

comprenda el fenómeno de la masa oculta, este método de determinar el destino

del Universo será poco convincente.

Como la luz de las galaxias más alejadas ha estado viajando cientos de miles de

años, el Universo se observa como aparecía en el pasado lejano. Al utilizar

nuevos detectores infrarrojos conocidos como series de gran formato, los

astrónomos del Observatorio Mauna Kea, en Hawaii, han registrado cientos de

galaxias, las más mortecinas jamás observadas, la mayoría de ellas agrupadas a

una distancia de 600.000 años luz. Una anomalía en esta visión del Universo de

hace 600.000 años es que, más que una mezcla de tipos galácticos, predomina

un tipo: una clase de galaxias pequeñas y compactas que contienen muchas

menos estrellas que la Vía Láctea u otras de su clase. Las jóvenes galaxias

espirales y elípticas que se observan en la actualidad se pueden haber formado

por la fusión de fragmentos galácticos de masa baja, relativamente tarde en la

historia del Universo, mucho después de la Gran Explosión, y pueden

representar cada uno de los estadios en la evolución del Universo.

Muchos de los trabajos habituales en cosmología teórica se centran en

desarrollar una mejor comprensión de los procesos que deben haber dado lugar

a la Gran Explosión. La teoría inflacionaria, formulada en la década de 1980,

resuelve dificultades importantes en el planteamiento original de Gamow al

incorporar avances recientes en la física de las partículas elementales. Estas

teorías también han conducido a especulaciones tan osadas como la posibilidad

de una infinitud de universos producidos de acuerdo con el modelo inflacionario.

Sin embargo, la mayoría de los cosmólogos se preocupa más de localizar el

paradero de la materia oscura, mientras que una minoría, encabezada por el

sueco Hannes Alfvén, premio Nobel de Física, mantienen la idea de que no es la

gravedad sino los fenómenos del plasma, la clave para comprender la estructura

y la evolución del Universo.

6. BIBLIOGRAFIA

1917. A. Einstein introduce el concepto de emisión estimulada.

1954. N. G. Basov, A. M. Prokhorov e —independientemente— C.H. Townes,

construyen un amplificador de microondas (MÁSER) utilizando el proceso de

emisión estimulada.

1958. A. M. Prokhorov e —independientemente— A. L. Schawlow y C. H.

Townes justifican teóricamente la posibilidad de construir un oscilador óptico

de luz visible (láser).

1960. T. H. Maiman construye el primer láser (de rubí).

1961. A. Javan construye un láser utilizando una mezcla gaseosa de helio-

neón.

1961. Hellwarth realiza investigación fundamental sobre el Q-Switching.

1961. Snitzer realiza investigación sobre el láser de Nd:vidrio.

1961-1962. N. Bloenbergen y R.V. Khokhov realizan investigaciones teóricas

fundamentales en el campo de la óptica no lineal y los láseres.

1962-1963. Los primeros láseres de semiconductores funcionan en varios

laboratorios del mundo.

1964. Geusic, Marios y Van Uitert realizan investigación sobre el láser de

Nd:YAG.

1964. Patel construye el primer láser de CO2.

1964. Kasper y Pimentel desarrollan el láser químico de yodo.

1964. Dominico y Hargrove desarrollan el Mode-Locking.

1969. Beaulieu desarrolla los láseres TEA.

1970. Basov desarrolla los láseres de excímeros.

1976. Ewing y Brau desarrollan el láser de KrF2.