119
FÍSICA 1. Cinemática 1.1 Características de los fenómenos mecánicos Los fenómenos mecánicos los podemos dividir para su estudio en CINEMATICA estudia todos los movimientos sin importar las causas que lo producen DINAMICA estudia todos los movimientos pero si le interesa las causas que los producen ESTATICA estudia los movimientos en reposo EL ESTUDIO DE LOS FENÓMENOS MECANICOS PERMITE IDENTIFICAR LAS SIGUIENTES VARIABLES. Distancia, desplazamiento, velocidad, rapidez, movimiento rectilíneo uniforme, movimiento uniformemente acelerado, aceleración, movimiento circular, velocidad angular, velocidad tangencial, caída libre movimiento uniformemente retardado. Todos estos conceptos se presentan de una manera en nuestra vida cotidiana y nos permite su aplicación. 1.2 Movimiento rectilíneo uniforme Un movimiento es rectilíneo cuando el móvil describe una trayectoria recta, y es uniforme cuando su velocidad es constante en el tiempo, dado que su aceleración es nula. Nos referimos a él mediante el acrónimo MRU.

fisica unam.pdf

Embed Size (px)

Citation preview

Page 1: fisica unam.pdf

FÍSICA

1. Cinemática

1.1 Características de los fenómenos mecánicos

Los fenómenos mecánicos los podemos dividir para su estudio en CINEMATICA estudia

todos los movimientos sin importar las causas que lo producen

DINAMICA estudia todos los movimientos pero si le interesa las causas que los producen

ESTATICA estudia los movimientos en reposo

EL ESTUDIO DE LOS FENÓMENOS MECANICOS PERMITE IDENTIFICAR LAS

SIGUIENTES VARIABLES.

Distancia, desplazamiento, velocidad, rapidez, movimiento rectilíneo uniforme, movimiento

uniformemente acelerado, aceleración, movimiento circular, velocidad angular, velocidad

tangencial, caída libre movimiento uniformemente retardado.

Todos estos conceptos se presentan de una manera en nuestra vida cotidiana y nos

permite su aplicación.

1.2 Movimiento rectilíneo uniforme

Un movimiento es rectilíneo cuando el móvil describe una trayectoria recta, y es uniforme

cuando su velocidad es constante en el tiempo, dado que su aceleración es nula. Nos

referimos a él mediante el acrónimo MRU.

Page 2: fisica unam.pdf

El MRU (movimiento rectilíneo uniforme) se caracteriza por:

Movimiento que se realiza sobre una línea recta.

Velocidad constante; implica magnitud y dirección constantes.

La magnitud de la velocidad recibe el nombre de celeridad o rapidez.

Aceleración nula.

Características: la distancia recorrida se calcula multiplicando la magnitud de la velocidad

media (celeridad o rapidez) por el tiempo transcurrido. Esta relación también es aplicable

si la trayectoria no es rectilínea, con tal que la celeridad o módulo de la velocidad sea

constante llamado movimiento de un cuerpo.

Por lo tanto el movimiento puede considerarse en dos sentidos; una velocidad negativa

representa un movimiento en dirección contraria al sentido que convencionalmente

hayamos adoptado como positivo.

De acuerdo con la Primera Ley de Newton, toda partícula permanece en reposo o en

movimiento rectilíneo uniforme cuando no hay una fuerza neta que actúe sobre el cuerpo.

Esta es una situación ideal, ya que siempre existen fuerzas que tienden a alterar el

movimiento de las partículas, por lo que en el movimiento rectilíneo uniforme (M.R.U) es

difícil encontrar la fuerza amplificada.

1.3 Movimiento uniformemente acelerado

En física, el movimiento uniformemente acelerado (MUA) es aquel movimiento en el que

la aceleración que experimenta un cuerpo permanece constante (en magnitud y dirección)

en el transcurso del tiempo.

Page 3: fisica unam.pdf

Existen dos tipos de movimiento, caracterizados por su trayectoria, de esta categoría:

1. El movimiento rectilíneo uniformemente acelerado, en el que la trayectoria es rectilínea,

que se presenta cuando la aceleración y la velocidad inicial tienen la misma dirección.

2. El movimiento parabólico, en el que la trayectoria descrita es una parábola, que se

presenta cuando la aceleración y la velocidad inicial no tienen la misma dirección.

En el movimiento circular uniforme, la aceleración tan solo es constante en módulo, pero

no lo es en dirección, por ser cada instante perpendicular a la velocidad, estando dirigida

hacia el centro de la trayectoria circular (aceleración centrípeta).Por ello, no puede

considerarsele un movimiento uniformemente acelerado, a menos que nos refiramos a su

aceleración angular.

2. Fuerzas, leyes de Newton y Ley de la Gravitación Universal

2.1 Factores que cambian la estructura o el estado de movimiento de objetos

Factores que cambian la estructura o el estado de movimiento de objetos: Son todas

aquellas fuerzas y conceptos que a continuación se definen.

Fuerza por contacto: Es aquella fuerza de rozamiento que se genera cuando un cuerpo

móvil choca con un cuerpo estático o en reposo surgiendo un movimiento en este

segundo cuerpo.

Fuerza a distancia: Es aquella fuerza que surge por medio de la repulsión o atracción que

genera un cuerpo en movimiento hacia otro que se localiza en reposo, la cual genera

movimiento en este segundo cuerpo. Por ejemplo las cargas eléctricas del mismo signo

se repelen haciendo que el cuerpo en reposo tenga movimiento.

Fuerzas activas: Son aquellas fuerzas de acción que se encuentran dentro de un cuerpo

en movimiento o en reposo, las cuales actúan para llevar a cabo un desplazamiento.

Page 4: fisica unam.pdf

Fuerzas reactivas: Son aquellas fuerzas de reacción que actúan dentro de un cuerpo al

recibir una fuerza externa contraria a su movimiento o estado de reposo.

Peso de un cuerpo: Es igual a la fuerza gravitacional que ejerce dicho cuerpo sobre la

superficie de la tierra, en otras palabras, es el producto de la masa del cuerpo por la

aceleración gravitacional.

G= N

m=kg

g=9.8 m/s2

G= mg

2.2 El concepto de fuerza

En física, la fuerza es una magnitud física que mide la intensidad del intercambio de

momento lineal entre dos partículas o sistemas de partículas (en lenguaje de la física de

partículas se habla de interacción). Según una definición clásica, fuerza es todo agente

capaz de modificar la cantidad de movimiento o la forma de los cuerpos materiales. No

debe confundirse con los conceptos de esfuerzo o de energía.

En el Sistema Internacional de Unidades, la fuerza se mide en newtons (N).

2.3 El carácter vectorial de la fuerza

Page 5: fisica unam.pdf

Toda fuerza está representada por magnitudes vectoriales, las cuales se representan por

medio de una flecha en el plano cartesiano y para obtener los componentes se requiere

conocer lo siguiente:

•Dirección de la fuerza: Recta en la que se mueve, esta puede ser este u oeste y/o el

ángulo que forma con una horizontal x.

•Sentido de la fuerza: Hacia donde se dirige arriba, abajo, izquierda y derecha; la

representa la punta de la flecha.

•Magnitud del desplazamiento: Es la medida de escala escogida para la representación en

el plano.

•Punto de partida de la fuerza: Lugar donde

2.4 Superposición de fuerzas

¿A qué se le llama ―principio de superposición de fuerzas‖?

Se conoce como principio de superposición de fuerzas al hecho de que podemos sustituir

un grupo de fuerzas que son aplicadas a un punto (x), por alguna otra fuerza (R) siempre

y cuando se mantenga la relación de fuerzas en el sistema. Simplemente es una manera

de simplificar el sistema, utilizando un solo dato.

2.5 Primera Ley de Newton

La primera ley del movimiento rebate la idea aristotélica de que un cuerpo sólo puede

mantenerse en movimiento si se le aplica una fuerza. Newton expone que:

Todo cuerpo persevera en su estado de reposo o movimiento uniforme y rectilíneo a no

ser que sea obligado a cambiar su estado por fuerzas impresas sobre él.

Page 6: fisica unam.pdf

Esta ley postula, por tanto, que un cuerpo no puede cambiar por sí solo su estado inicial,

ya sea en reposo o en movimiento rectilíneo uniforme, a menos que se aplique una fuerza

o una serie de fuerzas cuyo resultante no sea nulo sobre él. Newton toma en cuenta, así,

el que los cuerpos en movimiento están sometidos constantemente a fuerzas de roce o

fricción, que los frena de forma progresiva, algo novedoso respecto de concepciones

anteriores que entendían que el movimiento o la detención de un cuerpo se debía

exclusivamente a si se ejercía sobre ellos una fuerza, pero nunca entendiendo como esta

a la fricción.

En consecuencia, un cuerpo con movimiento rectilíneo uniforme implica que no existe

ninguna fuerza externa neta o, dicho de otra forma, un objeto en movimiento no se

detiene de forma natural si no se aplica una fuerza sobre él. En el caso de los cuerpos en

reposo, se entiende que su velocidad es cero, por lo que si esta cambia es porque sobre

ese cuerpo se ha ejercido una fuerza neta.

2.6 Segunda Ley de Newton

La segunda ley del movimiento de Newton dice que el cambio de movimiento es

proporcional a la fuerza motriz impresa y ocurre según la línea recta a lo largo de la cual

aquella fuerza se imprime.

Esta ley explica qué ocurre si sobre un cuerpo en movimiento (cuya masa no tiene por

qué ser constante) actúa una fuerza neta: la fuerza modificará el estado de movimiento,

cambiando la velocidad en módulo o dirección. En concreto, los cambios experimentados

en la cantidad de movimiento de un cuerpo son proporcionales a la fuerza motriz y se

desarrollan en la dirección de esta; esto es, las fuerzas son causas que producen

aceleraciones en los cuerpos. Consecuentemente, hay relación entre la causa y el efecto,

esto es, la fuerza y la aceleración están relacionadas. Dicho sintéticamente, la fuerza se

define simplemente en función del momento en que se aplica a un objeto, con lo que dos

fuerzas serán iguales si causan la misma tasa de cambio en el momento del objeto.

En términos matemáticos esta ley se expresa mediante la relación:

[pic]

Page 7: fisica unam.pdf

Donde [pic] es la cantidad de movimiento y [pic] la fuerza total. Si suponemos la masa

constante y nos manejamos con velocidades que no superen el 10% de la velocidad de la

luz podemos reescribir la ecuación anterior siguiendo los siguientes pasos:

Sabemos que [pic] es la cantidad de movimiento, que se puede escribir m.V donde m es

la masa del cuerpo y V su velocidad.

[pic]

Consideramos a la masa constante y podemos escribir aplicando estas modificaciones a

la ecuación anterior:

que es la ecuación fundamental de la dinámica, donde la constante de proporcionalidad,

distinta para cada cuerpo, es su masa de inercia. Veamos lo siguiente, si despejamos m

de la ecuación anterior obtenemos que m es la relación que existe entre [pic]y [pic]. Es

decir la relación que hay entre la fuerza aplicada al cuerpo y la aceleración obtenida.

Cuando un cuerpo tiene una gran resistencia a cambiar su aceleración (una gran masa)

se dice que tiene mucha inercia. Es por esta razón por la que la masa se define como una

medida de la inercia del cuerpo.

Por tanto, si la fuerza resultante que actúa sobre una partícula no es cero, esta partícula

tendrá una aceleración proporcional a la magnitud de la resultante y en dirección de ésta.

La expresión anterior así establecida es válida tanto para la mecánica clásica como para

la mecánica relativista, a pesar de que la definición de momento lineal es diferente en las

dos teorías: mientras que la dinámica clásica afirma que la masa de un cuerpo es siempre

la misma, con independencia de la velocidad con la que se mueve, la mecánica relativista

establece que la masa de un cuerpo aumenta al crecer la velocidad con la que se mueve

dicho cuerpo.

De la ecuación fundamental se deriva también la definición de la unidad de fuerza o

newton (N). Si la masa y la aceleración valen 1, la fuerza también valdrá 1; así, pues, el

newton es la fuerza que aplicada a una masa de un kilogramo le produce una aceleración

de 1 m/s². Se entiende que la aceleración y la fuerza han de tener la misma dirección y

sentido.

Page 8: fisica unam.pdf

La importancia de esa ecuación estriba sobre todo en que resuelve el problema de la

dinámica de determinar la clase de fuerza que se necesita para producir los diferentes

tipos de movimiento: rectilíneo uniforme (m.r.u), circular uniforme (m.c.u) y uniformemente

acelerado (m.r.u.a).

Si sobre el cuerpo actúan muchas fuerzas, habría que determinar primero el vector suma

de todas esas fuerzas. Por último, si se tratase de un objeto que cayese hacia la tierra con

una resistencia del aire igual a cero, la fuerza sería su peso, que provocaría una

aceleración descendente igual a la de la gravedad.

2.6.1 Concepto de peso

En física, el peso de un cuerpo se define como un vector que tiene magnitud y dirección,

que apunta aproximadamente hacia el centro de la Tierra. El vector Peso es la fuerza con

la cual un cuerpo actúa sobre un punto de apoyo, a causa de la atracción de este cuerpo

por la fuerza de la gravedad.

La situación más corriente, es la del peso de los cuerpos en las proximidades de la

superficie de un planeta como la Tierra, o de un satélite. El peso de un cuerpo depende

de la intensidad del campo gravitatorio y de la masa del cuerpo. En el Sistema

Internacional de Magnitudes se establece que el peso, cuando el sistema de referencia es

la Tierra, comprende no solo la fuerza gravitatoria local, sino también la fuerza centrífuga

local debida a la rotación; por el contrario, el empuje atmosférico no se incluye.[1]

En las proximidades de la Tierra, todos los objetos materiales son atraídos por el campo

gravitatorio terrestre, estando sometidos a una fuerza (peso en el caso de que estén

sobre un punto de apoyo) que les imprime un movimiento acelerado, a menos que otras

fuerzas actúen sobre el cuerpo.

2.6.2 Concepto de masa

La masa, en física, es la medida de la inercia, que únicamente para algunos casos puede

entenderse como la magnitud que cuantifica la cantidad de materia de un cuerpo. La

unidad de masa, en el Sistema Internacional de Unidades es el kilogramo (kg). Es una

Page 9: fisica unam.pdf

cantidad escalar y no debe confundirse con el peso, que es una cantidad vectorial que

representa una fuerza.

2.7 Tercera Ley de Newton

Con toda acción ocurre siempre una reacción igual y contraria: o sea, las acciones mutuas

de dos cuerpos siempre son iguales y dirigidas en sentido opuesto.

La tercera ley es completamente original de Newton (pues las dos primeras ya habían

sido propuestas de otras maneras por Galileo, Hooke y Huygens) y hace de las leyes de

la mecánica un conjunto lógico y completo. Expone que por cada fuerza que actúa sobre

un cuerpo, este realiza una fuerza de igual intensidad y dirección, pero de sentido

contrario sobre el cuerpo que la produjo. Dicho de otra forma, las fuerzas, situadas sobre

la misma recta, siempre se presentan en pares de igual magnitud y opuestas en sentido.

Este principio presupone que la interacción entre dos partículas se propaga

instantáneamente en el espacio (lo cual requeriría velocidad infinita), y en su formulación

original no es válido para fuerzas electromagnéticas puesto que estas no se propagan por

el espacio de modo instantáneo sino que lo hacen a velocidad finita "c".

Es importante observar que este principio de acción y reacción relaciona dos fuerzas que

no están aplicadas al mismo cuerpo, produciendo en ellos aceleraciones diferentes, según

sean sus masas. Por lo demás, cada una de esas fuerzas obedece por separado a la

segunda ley. Junto con las anteriores leyes, ésta permite enunciar los principios de

conservación del momento lineal y del momento angular.

2.8 Equilibrio rotacional y traslacional. Fuerza y torca

Equilibrio Traslacional.- Ocurre cuando no hay movimiento relativo de las coordenadas

(posición) del centro de masa de un cuerpo.

Equilibrio Rotacional.- Ocurre cuando un cuerpo o sistema no gira con respecto a algún

punto, aunque exista una tendencia.

Page 10: fisica unam.pdf

En mecánica newtoniana, se denomina momento de una fuerza (respecto a un punto

dado) a una magnitud (pseudo)vectorial, obtenida como producto vectorial del vector de

posición del punto de aplicación de la fuerza con respecto al punto al cual se toma el

momento por la fuerza, en ese orden. También se le denomina momento dinámico o

sencillamente momento.

Ocasionalmente recibe el nombre de torque a partir del término inglés (torque), derivado a

su vez del latín torquere (retorcer). Este término intenta introducirse en la terminología

española, bajo las formas de torque o torca, aunque con escasa fortuna, ya que existe la

denominación par que es la correcta en español.

2.9 Ley de la Fuerza en un resorte (Ley de Hooke)

En física, la ley de elasticidad de Hooke o ley de Hooke, originalmente formulada para

casos del estiramiento longitudinal, establece que el alargamiento unitario que

experimenta un material elástico es directamente proporcional a la fuerza aplicada F:

[pic]

siendo δ el alargamiento, L la longitud original, E: módulo de Young, A la sección

transversal de la pieza estirada. La ley se aplica a materiales elásticos hasta un límite

denominado límite elástico.

Esta ley recibe su nombre de Robert Hooke, físico británico contemporáneo de Isaac

Newton. Ante el temor de que alguien se apoderara de su descubrimiento, Hooke lo

publicó en forma de un famoso anagrama, ceiiinosssttuv, revelando su contenido un par

de años más tarde. El anagrama significa Ut tensio sic vis ("como la extensión, así la

fuerza").

2.10 Ley de la Gravitación Universal. Movimiento de planetas

La gravedad, en física, es una de las cuatro interacciones fundamentales. Origina la

aceleración que experimenta un objeto en las cercanías de un objeto astronómico.

Page 11: fisica unam.pdf

Por efecto de la gravedad tenemos la sensación de peso. Si estamos en un planeta y no

estamos bajo el efecto de otras fuerzas, experimentaremos una aceleración dirigida

aproximadamente hacia el centro del planeta. En la superficie de la Tierra, la aceleración

de la gravedad es aproximadamente: 9,81 m/s2

También se denomina fuerza gravitatoria, fuerza de gravedad, interacción gravitatoria o

gravitación. Einstein demostró que es una magnitud tensorial: «Dicha fuerza es una

ilusión, un efecto de la geometría. La Tierra deforma el espacio-tiempo de nuestro

entorno, de manera que el propio espacio nos empuja hacia el suelo».

2. Trabajo y leyes de la conservación

3.1 Concepto de trabajo mecánico

En mecánica clásica, el trabajo que realiza una fuerza se define como el producto de ésta

por el camino que recorre su punto de aplicación y por el coseno del ángulo que forman el

uno con el otro.[1] El trabajo es una magnitud física escalar que se representa con la letra

[pic](del inglés Work) y se expresa en unidades de energía, esto es en julios o joules (J)

en el Sistema Internacional de Unidades.

Matemáticamente se expresa como:

[pic]

Donde [pic]es el trabajo mecánico, [pic]es la magnitud de la fuerza, [pic] es la distancia

recorrida y [pic]es el ángulo que forman entre sí el vector fuerza y el vector

desplazamiento.

Cuando el vector fuerza es perpendicular al vector desplazamiento del cuerpo sobre el

que se aplica, dicha fuerza no realiza trabajo alguno. Asimismo, si no hay desplazamiento,

el trabajo también será nulo.

3.2 Concepto de potencia

Según la Enciclopedia Microsoft Encarta la Potencia es : ―El trabajo, o transferencia de

energía, realizado por unidad de tiempo. El trabajo es igual a la fuerza aplicada para

Page 12: fisica unam.pdf

mover un objeto multiplicada por la distancia a la que el objeto se desplaza en la dirección

de la fuerza. La potencia mide la rapidez con que se realiza ese trabajo. En términos

matemáticos, la potencia es igual al trabajo realizado dividido entre el intervalo de tiempo

a lo largo del cual se efectúa dicho trabajo.

El concepto de potencia no se aplica exclusivamente a situaciones en las que se

desplazan objetos mecánicamente. También resulta útil, por ejemplo, en electricidad.

Imaginemos un circuito eléctrico con una resistencia. Hay que realizar una determinada

cantidad de trabajo para mover las cargas eléctricas a través de la resistencia. Para

moverlas más rápidamente —en otras palabras, para aumentar la corriente que fluye por

la resistencia— se necesita más potencia.

La potencia siempre se expresa en unidades de energía divididas entre unidades de

tiempo. La unidad de potencia en el Sistema Internacional es el vatio, que equivale a la

potencia necesaria para efectuar 1 julio de trabajo por segundo. Una unidad de potencia

tradicional es el caballo de vapor (CV), que equivale aproximadamente a 746 vatios.‖

Por último, y con el conocimiento previo que tenemos sobre el tema, en cuanto a

fórmulas, la Potencia se puede obtener de tres maneras:

P = T / t P = F · d / t P = F · V

Partiendo de la primer fórmula, la Potencia es igual al Trabajo (en algunos casos total)

divido entre el tiempo; la segunda fórmula aplica el término de que el trabajo es la Fuerza

por Distancia, esto entre un tiempo. La tercera aplica el concepto de Velocidad, siendo

una distancia recorrida en un cierto tiempo.

3.3 Energía cinética

La energía cinética de un cuerpo es una energía que surge en el fenómeno del

movimiento. Está definida como el trabajo necesario para acelerar un cuerpo de una masa

dada desde el reposo hasta la velocidad que posee. Una vez conseguida esta energía

durante la aceleración, el cuerpo mantiene su energía cinética salvo que cambie su

rapidez o su masa. Para que el cuerpo regrese a su estado de reposo se requiere un

trabajo negativo de la misma magnitud que su energía cinética.

Page 13: fisica unam.pdf

3.4 Energía potencial

En un sistema físico, la energía potencial es energía que mide la capacidad que tiene

dicho sistema para realizar un trabajo en función exclusivamente de su posición o

configuración. Puede pensarse como la energía almacenada en el sistema, o como una

medida del trabajo que un sistema puede entregar. Suele abreviarse con la letra [pic]o

[pic].

La energía potencial puede presentarse como energía potencial gravitatoria, energía

potencial electrostática, y energía potencial elástica.

Más rigurosamente, la energía potencial es una magnitud escalar asociada a un campo

de fuerzas (o como en elasticidad un campo tensorial de tensiones). Cuando la energía

potencial está asociada a un campo de fuerzas, la diferencia entre los valores del campo

en dos puntos A y B es igual al trabajo realizado por la fuerza para cualquier recorrido

entre B y A.

3.5 Conservación de la energía mecánica

La energía se conserva, es decir, ni se crea ni se destruye. Para sistemas abiertos

formados por partículas que interactúan mediante fuerzas puramente mecánicas o

campos conservativos la energía se mantiene constante con el tiempo:

[pic].

Donde:

[pic], es la energía cinética del sistema.

[pic], es la energía potencial del sistema.

Es importante notar que la energía mecánica así definida permanece constante si

únicamente actúan fuerzas conservativas sobre las partículas. Sin embargo existen

ejemplos de sistemas de partículas donde la energía mecánica no se conserva:

Sistemas de partículas cargadas en movimiento. En ese caso los campos magnéticos no

derivan de un potencial y la energía mecánica no se conserva, ya que parte de la energía

mecánica "se convierte" en energía del campo electromagnético y viceversa.

Page 14: fisica unam.pdf

Sistemas disipativos. En este caso parte de la energía cinética puede quedar como

energía interna o energía térmica de agitación de las moléculas o partes microscópicas

del sistema.

Sistemas termodinámicos que experimentan cambios de estado

3.6 Conservación del ímpetu (momento)

En la naturaleza existen cantidades que se deben conservar; es decir, sin importar el

proceso al que se les someta, siempre, la suma total debe ser igual. Algunas de estas

cantidades son: energía, carga eléctrica, ímpetu.

Los físicos llamamos ímpetu, desde el punto de vista de la mecánica clásica, al producto

de la masa de un objeto por su velocidad. Ósea, es una cantidad muy parecida a la

energía cinética.

De acuerdo con el principio de conservación del ímpetu: la cantidad de ímpetu inicial se

debe transferir íntegramente al sistema y perecer igual sin importar la cantidad de veces

que se transferir o se distribuyo. Como una imagen, dice más que mil palabras, pues para

eso es video presente.

Consiste de una serie de canicas colgantes, alineadas y muy juntas entre si, muchos

hemos visto este juguete funcionando. Cuando tomamos una de estas canicas y la

estrellamos con las demás alineadas, se observa que la única que se altera y se mueve

es la canica del final de la línea, mientras que el resto de las canicas no se mueve.

Cuando era un niño me gustaba mucho este experimento, porque cuando tomaba dos

canicas y las tiraba a las demás, solamente las dos del final se movían y así

consecutivamente.

Este sencillo experimento tiene interesante implicaciones cuando se estrellan los autos,

pues en ellos se debe conservar el ímpetu, la diferencia radica que las canicas no se

deforman y la energía se trasmite íntegramente a la siguiente canica. Pero, en el auto

parte del ímpetu se dispersa en la deformación del metal.

3.7 Colisiones entre partículas en una dimensión

Page 15: fisica unam.pdf

Colisiones

Durante un choque actúa una fuerza relativamente grande sobre las partículas que

impactan, aunque solo lo hacen durante un intervalo de tiempo más o menos pequeño.

Básicamente en una colisión el movimiento de las partículas que chocan (o,por lo menos,

el de una de ellas) cambia en forma muy brusca y que podemos establecer una

separación bastante definida entre los tiempos que transcurren "antes de la colisión" y los

que lo hacen "después de ella".

Por ejemplo, cuando un bate golpea una pelota de béisbol, el principio y el fin de la

colisión puede determinarse con muy buena precisión. El bate está en contacto con la

pelota durante un intervalo de tiempo que es muy pequeño comparado con el tiempo en

que la pelota esta en el aire. Durante la colisión el bate le aplica una gran fuerza a la

pelota. Esta fuerza varía con el tiempo en una forma tan completa que solo puede

medirse con dificultad. Tanto la pelota como el bate se desforman durante la colisión.

En las colisiones se verifica el principio de acción y reacción, es decir si el bate le aplica

una fuerza a la pelota, la pelota reacciona con una fuerza de igual magnitud pero de

sentido contrario, aunque en realidad es indistinto cual es la fuerza de acción y cual la de

reacción, podemos decir si la pelota le aplica una fuerza al bate, el bate reacciona con

una fuerza de igual magnitud pero de sentido contrario. En el caso de las colisiones estas

fuerzas actúan durante lapso de tiempo muy pequeño y se denominan fuerzas

instantáneas o impulsivas.

Cuando dos electrones "chocan" la fuerza que actúa entre ambos puede ser conocida

fuerza electrostática de repulsión que está asociada con la carga de las partículas. Puede

ser que las partículas no se toquen, pero aún así, podemos hablar de una colisión, porque

una fuerza relativamente grande que actúa durante un tiempo que se considera pequeño

comparado con el tiempo en que las partículas están en observación, tiene un gran efecto

en el movimiento de los electrones.

Cuando un protón (H¹ o p) de 25 MeV de energía (1 MeV = 6,242.1012 J), "choca" con un

núcleo de un isótopo de la plata (Ag107), las partículas pueden realmente "tocarse" ya

que, en éste caso, la fuerza predominante que actúa entre ellas no es la fuerza

electrostática repulsiva, si no la fuerza nuclear atractiva que es intensa y de corto alcance.

El protón puede penetrar en el núcleo de la plata para formar una estructura compuesta,

después de un tiempo pequeño -el "intervalo de la colisión" puede ser de 1018 segundos-

la estructura compuesta puede separarse en dos partículas diferentes según un esquema

tal como:

p + Ag107 → α + Pd104

En el que α = He4 es una partícula alfa. En consecuencia el concepto de colisión puede

aplicarse para que incluya eventos (que generalmente se llaman reacciones) en los que

Page 16: fisica unam.pdf

cambian las identidades de las partículas que interaccionan. Los principios de

conservación son aplicables a todos estos ejemplos.

Si se desea, la definición de una colisión puede ampliarse aún más para incluir en ella a la

desintegración espontánea de una partícula en dos o más partículas distintas. Un ejemplo

de esto es la desintegración de una partícula elemental, llamada la partícula sigma, en

otras dos partículas, el pión y el neutrón según el esquema:

∑ ® π - + n

Aunque en éste proceso no ocurre que dos cuerpos lleguen a estar en contacto (a menos

que se le considere en sentido inverso) tiene muchas características en común con las

colisiones, a saber:

1 - Hay una distinción clara entre "antes del suceso" y "después de suceso".

2 - Las leyes de la conservación del ímpetu y de la energía proporcionan mucha

información relacionada con éste tipo de proceso, estudiando las situaciones "antes" y

"después", aún cuando se sepa poco sobre las leyes de las fuerzas que operan durante el

"evento" mismo.

3.8 Procesos disipativos (fricción y rozamiento)

La ley de la conservación de la energía constituye el primer principio de la termodinámica

y afirma que la cantidad total de energía en cualquier sistema aislado permanece

invariable con el tiempo, aunque esta se puede transformar en otro tipo de energía, la

energía no puede crearse ni destruirse, si no que sólo se pude cambiar de una forma a

otra.

Sin embargo la segunda ley de la termodinámica expresa que ―La cantidad de entropía

(magnitud que mide la parte de la energía que no puede utilizarse para producir un

trabajo) de cualquier sistema aislado termodinámicamente se incrementa con el tiempo‖.

Cuando una parte de un sistema cerrado interacciona con otra parte, la energía se divide

hasta alcanzar un equilibrio térmico.

Se puede deducir que la energía no se conserva, si no que es transformada en otra, esta

energía puede llegar a ser térmica, eléctrica, química, nuclear, entre otras.

Si la energía de un sistema es degradada en forma de calor se dice que es disipativo.

Page 17: fisica unam.pdf

Los procesos disipativos, son aquellos que transforman la energía mecánica en energía

térmica, por ejemplo: el rozamiento entre dos superficies sólidas, la fricción viscosa en el

interior de un fluido, la resistencia eléctrica, entre otras.

El rozamiento o fricción, se divide en dos tipos, la fricción estática (FE), es una resistencia

entre dos objetos que debe de ser superada para ponerse en movimiento; y la fricción

dinámica (FD), es una fuerza de magnitud considerada constante, que se opone al

movimiento cuando ya ha comenzado. No existe una idea clara de la diferencia que

existe entre el rozamiento dinámico y el estático, pero se tiende a pensar que el estático

es algo mayor que el dinámico, porque al permanecer en reposo ambas superficies

pueden aparecer enlaces iónicos, o incluso microsoldaduras entre las superficies, factores

que desaparecen en estado de movimiento.

En el caso de la fricción viscosa, Como ejemplo en el caso de un auto o de un aeroplano

que se mueven: el aire genera una fuerza que se opone al movimiento; o cuando

nadamos en una alberca: el agua se opone a nuestro movimiento. Esta fuerza de

oposición se debe a la viscosidad del fluido. Mientras mayor sea la velocidad con que se

mueve el cuerpo dentro del fluido, mayor será la fuerza de oposición, o de fricción

viscosa, que se genere.

4. Termodinámica

4.1 Calor y temperatura

Calor.- Fenómeno físico que eleva la temperatura y dilata, funde, volatiliza o descompone

un cuerpo. El calor de un cuerpo es la suma de la energía cinética de todas sus

moléculas.

El tema calor constituye la rama de la Física que se ocupa de los movimientos de las

moléculas, ya sean de un gas, un líquido o un sólido. Al aplicar calor a un cuerpo, éste

aumenta su energía. Pero existe una diferencia sustancial entre la energía térmica que

posee un cuerpo y su temperatura.

Page 18: fisica unam.pdf

Temperatura.- Grado de calor en los cuerpos. Para medir la temperatura, se utiliza el

termómetro de mercurio, que consiste en un tubo estrecho de vidrio (llamado capilar), con

el fondo ensanchado en una ampolla pequeña y el extremo superior cerrado.

La ampolla o depósito y parte del capilar están llenos de mercurio y en la parte restante se

ha hecho el vacío. Para leer la temperatura se utiliza una escala que está grabada en el

vidrio.

4.1.1 Diferencia entre calor y temperatura

No son lo mismo, pero si son conceptos que se encuentran intimamente relacionados.

En la física, específicamente la termodinámica, el calor es la energía que se transfiere

desde un sistema o cuerpo a otro, debido a una diferencia de temperatura.

La temperatura es una propiedad física en un sistema, una medición de energía por así

decirlo, relacionada con lo que comúnmente llamamos caliente y frío, pero que no es

exáctamente lo mismo que esta definición popular. (en realidad no sentimos algo caliente

solo porque tiene gran temperatura, sino que se debe a la transferencia de calor, por

ejemplo con una buena alfombra, la que no es buena transmisora de calor, la sentimos

"calentita", más allá de su medida de temperatura) la temperatura es una variable que

refleja le energía interna del sistema en cuestión, asociada a las vibraciónes y

movimientos internos de las partículas. La temperatura la medimos en escalas, que son

arbitrarias, y sirven para homologar nuestras mediciones de esta energía.

Desde otro punto de vista, podemos afirmar que el calor permite que la temperatura

aumente o también disminuya en un objeto en particular, según el caso, debido a la

transferencia de energía que se produce con otro objeto o el medio que lo rodea

4.1.2 Equilibrio térmico

Para poder dar una definición más precisa del concepto de equilibrio térmico desde un

punto de vista termodinámico es necesario definir algunos conceptos.

Page 19: fisica unam.pdf

Dos sistemas que están en contacto mecánico directo o separados mediante una

superficie que permite la transferencia de calor lo que se conoce como superficie

diatérmica, se dice que están en contacto térmico.

Consideremos entonces dos sistemas en contacto térmico, dispuestos de tal forma que no

puedan mezclarse o reaccionar químicamente. Consideremos además que estos

sistemas están colocados en el interior de un recinto donde no es posible que

intercambien calor con el exterior ni existan acciones desde el exterior capaces de ejercer

trabajo sobre ellos. La experiencia indica que al cabo de un tiempo estos sistemas

alcanzan un estado de equilibrio termodinámico que se denominará estado de equilibrio

térmico recíproco o simplemente de equilibrio térmico.

El concepto de equilibrio térmico puede extenderse para hablar de un sistema o cuerpo en

equilibrio térmico. Cuando dos porciones cuales sean de un sistema se encuentran en

equilibrio térmico se dice que el sistema mismo está en equilibrio térmico o que es

térmicamente homogéneo.

4.1.3 Escalas termométricas absolutas

Cualquier propiedad de un cuerpo que dependa de la temperatura puede utilizarse para

definir una escala de temperatura.

Para hacerlo, debemos asignar primero las temperaturas de dos puntos fijos (como el

punto de fusión del hielo y el punto de ebullición del agua).

Resulta conveniente tener, además de estas escalas físicas, una sencilla escala numérica

de temperaturas –entre otras razones, para así no tener que utilizar 15 palabras para dar

el valor de una única temperatura. Una escala definida de temperatura se obtiene

asignando arbitrariamente valores numéricos a dos temperaturas fácilmente medibles y

reproducibles; por ejemplo, asignando un valor de 0 al punto de fusión del hielo y un valor

de 100 al punto de ebullición del agua a una presión de una atmósfera. Esto especifica

completamente a la escala, ya que además de localizar los dos puntos especifica que la

longitud de un intervalo unitario de temperatura (llamado grado) es 1/100 de la distancia

entre los dos puntos de referencia en la escala.

Page 20: fisica unam.pdf

Las dos escalas de temperatura más comunes se definen utilizando la temperatura de

fusión (Tf) y la temperatura de ebullición (Te) del agua a una presión de 1 atmósfera.

Una de las primeras escalas de temperatura, todavía empleada en los países

anglosajones, fue diseñada por el físico alemán Gabriel Daniel Fahrenheit. Según esta

escala, a la presión atmosférica normal, el punto de solidificación del agua (y de fusión del

hielo) es de 32 °F, y su punto de ebullición es de 212 °F. La escala centígrada o Celsius,

ideada por el astrónomo sueco Anders Celsius y utilizada en casi todo el mundo, asigna

un valor de 0 °C al punto de congelación del agua y de 100 °C a su punto de fusión. En

ciencia, la escala más empleada es la escala absoluta o Kelvin, inventada por el

matemático y físico británico William Thomson , lord Kelvin. En esta escala, el cero

absoluto, que está situado en -273,15 °C, corresponde a 0 K, y una diferencia de un kelvin

equivale a una diferencia de un grado en la escala centígrada.

Para graduar un termómetro, primero se coloca el depósito en una mezcla de hielo y

agua, y en el lado del vástago se marca la altura de la columna de mercurio. Luego se

coloca en vapor encima de agua hirviendo y se vuelve a marcar. Estas dos señales

determinan los puntos extremos para cualquier escala que se vaya a usar.

Las escalas Kelvin y Rankine empiezan con la temperatura más baja posible como cero

absoluto.

Pueden utilizarse las siguientes relaciones a fin de convertir una temperatura expresada

en una escala a su equivalente en otra escala.

T(K) = T(°C) + 273.15

T(°R) = T(°F) + 459.67

T(°R) = 1.8T(K)

T(°F) = 1.8T(°C) + 32

Page 21: fisica unam.pdf

4.1.4 Conductividad calorífica y capacidad térmica específica

Conductividad calorífica y capacidad térmica específica

La conductividad térmica es una propiedad física de los materiales que mide la capacidad

de conducción de calor. En otras palabras la conductividad térmica es también la

capacidad de una sustancia de transferir el movimiento cinético de sus moléculas a sus

propias moléculas adyacentes o a otras substancias con las que está en contacto.

La inversa de la conductividad térmica es la resistividad térmica, que es la capacidad de

los materiales para oponerse al paso del calor.

4.1.5 Leyes de la Termo dinámica

Principio cero de la termodinámica

Este principio establece que existe una determinada propiedad, denominada temperatura

empírica θ, que es común para todos los estados de equilibrio termodinámico que se

encuentren en equilibrio mutuo con uno dado. Tiene tremenda importancia experimental

— pues permite construir instrumentos que midan la temperatura de un sistema — pero

no resulta tan importante en el marco teórico de la termodinámica.

El equilibrio termodinámico de un sistema se define como la condición del mismo en el

cual las variables empíricas usadas para definir o dar a conocer un estado del sistema

(presión, volumen, campo eléctrico, polarización, magnetización, tensión lineal, tensión

superficial, coordenadas en el plano x , y) no son dependientes del tiempo. El tiempo es

un parámetro cinético, asociado a nivel microscópico; el cual a su vez esta dentro de la

físico química y no es parámetro debido a que a la termodinámica solo le interesa trabajar

con un tiempo inicial y otro final. A dichas variables empíricas (experimentales) de un

sistema se las conoce como coordenadas térmicas y dinámicas del sistema.

Page 22: fisica unam.pdf

Este principio fundamental, aun siendo ampliamente aceptado, no fue formulado

formalmente hasta después de haberse enunciado las otras tres leyes. De ahí que

recibiese el nombre de principio cero.

Primera ley de la termodinámica

También conocida como principio de conservación de la energía para la termodinámica —

en realidad el primer principio dice más que una ley de conservación—, establece que si

se realiza trabajo sobre un sistema o bien éste intercambia calor con otro, la energía

interna del sistema cambiará. Visto de otra forma, esta ley permite definir el calor como la

energía necesaria que debe intercambiar el sistema para compensar las diferencias entre

trabajo y energía interna. Fue propuesta por Nicolas Léonard Sadi Carnot en 1824, en su

obra Reflexiones sobre la potencia motriz del fuego y sobre las máquinas adecuadas para

desarrollar esta potencia, en la que expuso los dos primeros principios de la

termodinámica. Esta obra fue incomprendida por los científicos de su época, y más tarde

fue utilizada por Rudolf Loreto Clausius y Lord Kelvin para formular, de una manera

matemática, las bases de la termodinámica.

La ecuación general de la conservación de la energía es la siguiente:

Eentra − Esale = ΔEsistema

Que aplicada a la termodinámica teniendo en cuenta el criterio de signos termodinámico,

queda de la forma:

ΔU = Q − W

Donde U es la energía interna del sistema (aislado), Q es la cantidad de calor aportado al

sistema y W es el trabajo realizado por el sistema.

[pic]

[pic]ilustración de la segunda ley mediante una máquina térmica

Segunda ley de la termodinámica

Page 23: fisica unam.pdf

Esta ley arrebata la dirección en la que deben llevarse a cabo los procesos

termodinámicos y, por lo tanto, la imposibilidad de que ocurran en el sentido contrario (por

ejemplo, que una mancha de tinta dispersada en el agua pueda volver a concentrarse en

un pequeño volumen). También establece, en algunos casos, la imposibilidad de convertir

completamente toda la energía de un tipo en otro sin pérdidas. De esta forma, la segunda

ley impone restricciones para las transferencias de energía que hipotéticamente pudieran

llevarse a cabo teniendo en cuenta sólo el Primer Principio. Esta ley apoya todo su

contenido aceptando la existencia de una magnitud física llamada entropía, de tal manera

que, para un sistema aislado (que no intercambia materia ni energía con su entorno), la

variación de la entropía siempre debe ser mayor que cero.

Debido a esta ley también se tiene que el flujo espontáneo de calor siempre es

unidireccional, desde los cuerpos de mayor temperatura hacia los de menor temperatura,

hasta lograr un equilibrio térmico.

La aplicación más conocida es la de las máquinas térmicas, que obtienen trabajo

mecánico mediante aporte de calor de una fuente o foco caliente, para ceder parte de

este calor a la fuente o foco o sumidero frío. La diferencia entre los dos calores tiene su

equivalente en el trabajo mecánico obtenido.

Existen numerosos enunciados equivalentes para definir este principio, destacándose el

de Clausius y el de Kelvin.

Enunciado de Clausius

[pic]

[pic]Diagrama del ciclo de Carnot en función de la presión y el volumen.

En palabras de Sears es: "No es posible ningún proceso cuyo único resultado sea la

extracción de calor de un recipiente a una cierta temperatura y la absorción de una

cantidad igual de calor por un recipiente a temperatura más elevada".

Enunciado de Kelvin

No existe ningún dispositivo que, operando por ciclos, absorba calor de una única fuente

(E.absorbida), y lo convierta íntegramente en trabajo (E.útil).

Page 24: fisica unam.pdf

Enunciado de Kelvin - Planck

Es imposible construir una máquina térmica que, operando en un ciclo, no produzca otro

efecto que la absorción de energía desde un depósito, y la realización de una cantidad

igual de trabajo.

Otra interpretación

Es imposible construir una máquina térmica cíclica que transforme calor en trabajo sin

aumentar la energía termodinámica del ambiente. Debido a esto podemos concluir, que el

rendimiento energético de una máquina térmica cíclica que convierte calor en trabajo,

siempre será menor a la unidad, y ésta estará más próxima a la unidad, cuanto mayor sea

el rendimiento energético de la misma. Es decir, cuanto mayor sea el rendimiento

energético de una máquina térmica, menor será el impacto en el ambiente, y viceversa.

Tercera ley de la termodinámica

La Tercera de las leyes de la termodinámica, propuesta por Walther Nernst, afirma que es

imposible alcanzar una temperatura igual al cero absoluto mediante un número finito de

procesos físicos. Puede formularse también como que a medida que un sistema dado se

aproxima al cero absoluto, su entropía tiende a un valor constante específico. La entropía

de los sólidos cristalinos puros puede considerarse cero bajo temperaturas iguales al cero

absoluto. No es una noción exigida por la Termodinámica clásica, así que es

probablemente inapropiado tratarlo de ―ley‖.

Es importante recordar que los principios o leyes de la Termodinámica son sólo

generalizaciones estadísticas, válidas siempre para los sistemas macroscópicos, pero

inaplicables a nivel cuántico. El demonio de Maxwell ejemplifica cómo puede concebirse

un sistema cuántico que rompa las leyes de la Termodinámica.

Asimismo, cabe destacar que el primer principio, el de conservación de la energía, es la

más sólida y universal de las leyes de la naturaleza descubiertas hasta ahora por las

ciencias.

4.2 Teoría Cinética de los Gases

Page 25: fisica unam.pdf

El postulado básico de la teoría cinética de los gases es que las direcciones y las

magnitudes de las velocidades de las moléculas están distribuidas al azar.

Cuando nos referimos a las velocidades de las moléculas, las medimos respecto del

centro de masas del sistema gaseoso, por tanto, la presión y la temperatura del gas no se

modifican si el recipiente que lo contiene está en movimiento.

Si suponemos que las velocidades en el sentido positivo del eje X (o del eje Y o Z) son

igualmente probables que en el sentido negativo, las velocidades medias a lo largo de los

ejes son cero, es decir.

===0.

Por otra parte, se cumplirá que las velocidades a lo largo del eje X no estarán

relacionadas con las velocidades a lo largo del eje Y o Z, por tanto,

==.

Como el cuadrado del módulo de la velocidad es v2= v2x +v2y +v2z resulta que < v2>=3<

v2x>

La presión ejercida por el gas

Supongamos que el gas está encerrado en un recipiente, tal como se muestra en la

figura. El recipiente dispone de un émbolo móvil de área A. Para mantener fijo el émbolo

es necesario ejercer una fuerza F, normalmente a la superficie del émbolo. El valor de la

fuerza F es igual al producto de la presión ejercida por el gas por el área del émbolo.

F=PA

[pic]

Las moléculas del gas chocan elásticamente con el émbolo, de modo que la componente

X de la velocidad cambia de sentido. Por tanto, el cambio en el momento lineal de cada

molécula es

Δp=2mvx

[pic]

Si el número total de moléculas que chocan con el émbolo en el intervalo de tiempo

comprendido entre t y t+Δt es Nx, la variación de momento lineal será 2mvxNx.

Page 26: fisica unam.pdf

Podemos calcular Nx considerando que solamente la mitad de las moléculas, en

promedio, tienen el sentido de la velocidad hacia la parte positiva del eje X, es decir, se

dirigen hacia el émbolo.

Si suponemos que las moléculas que chocan con el émbolo tienen el mismo valor de la

componente X de la velocidad, cruzarán el área A en el tiempo Dt todas las partículas

contenidas en el volumen AvxΔt. Si n es el número de partículas por unidad de volumen

Nx valdrá entonces, nAvxΔt/2.

[pic]

La variación de momento lineal Dp en el intervalo de tiempo comprendido entre t y t+Δt es

mvx nAvxΔt.

La fuerza sobre el émbolo es el cociente entre el cambio de momento lineal y el tiempo

que tarda en efectuarse dicho cambio.

[pic]

y por tanto, la presión ejercida por el gas vale

P=n(mv2x)

Todas las moléculas no tienen el mismo valor vx de la velocidad, sino que la distribución

de velocidades es tal que su valor medio cuadrático es . Por tanto, en la expresión de la

presión P, hemos de sustituir v2x por .

[pic](1)

ya que =/3

El último término que aparece en la fórmula es el valor medio de la energía cinética.

4.2.1 Estructura de la materia (enfoque clásico)

El enfoque clásico de la estructura de la materia establece que la misma esta formada por

átomos. El primero en utilizar este termino fue Democrito, porque creía que los cuerpos

estaban formados por pequeñas partículas indivisibles. (Átomo, en griego, significa

indivisible). Se pensaba que la materia era continua. No es sino hasta 1803 que el

científico Jhon Dalton cambia esta concepción, proponiendo la existencia de un límite a la

subdivisión de la materia o los elementos, estableciendo que los átomos son indivisibles.

A Dalton se le considera el padre de la Teoría Atómica Moderna.

4.2.2 Temperatura según la Teoría Cinética de los Gases

Page 27: fisica unam.pdf

Esta teoría considera una determinada masa gaseosa formada por un conjunto de

partículas idealmente esféricas dotadas de una masa m y una velocidad v, moviéndose de

forma desordenada en todas direcciones y chocando unas contra otras y con las paredes

del recipiente que les contiene.

Estructura de la materia: La materia esta formada por moléculas, las que a su vez

contienen a los átomos que están formados por electrones, protones y neutrones.

Temperatura según la teoría cinética de los gases:

Considerando el número total de moléculas existentes en un mol de gas (número de

Avogadro) y la velocidad media de las partículas a partir de la relación: PV= nRT.

Se establece la siguiente expresión:

T=(2/3)(Na/R)(1/2)MV2

En esta igualdad se encuentra invertida la relación entre la constante absoluta de los

gases y el número de Avogadro, la llamada constante de Boltzmann.

K=R/Na

4.2.3 Ecuación de estado de los gases ideales

La ley de los gases ideales es la ecuación de estado del gas ideal, un gas hipotético

formado por partículas puntuales, sin atracción ni repulsión entre ellas y cuyos choques

son perfectamente elásticos (conservación de momento y energía cinética). Los gases

reales que más se aproximan al comportamiento del gas ideal son los gases

monoatómicos en condiciones de baja presión y alta temperatura.

Page 28: fisica unam.pdf

Empíricamente, se observan una serie de relaciones entre la temperatura, la presión y el

volumen que dan lugar a la ley de los gases ideales, deducida por primera vez por Émile

Clapeyron en 1834.

La ecuación de estado

La ecuación que describe normalmente la relación entre la presión, el volumen, la

temperatura y la cantidad (en moles) de un gas ideal es:

[pic]

Donde:

• [pic]= Presión

• [pic]= Volumen

• [pic]= Moles de Gas.

• [pic]= Constante universal de los gases ideales .

• [pic]= Temperatura absoluta

[editar] Teoría cinética molecular

Esta teoría fue desarrollada por Ludwig Boltzmann y Maxwell. Nos indica las propiedades

de un gas ideal a nivel molecular.

• Todo gas ideal está formado por N pequeñas partículas puntuales (átomos o

moléculas).

• Las moléculas gaseosas se mueven a altas velocidades, en forma recta y

desordenada.

• Un gas ideal ejerce una presión continua sobre las paredes del recipiente que lo

contiene, debido a los choques de las partículas con las paredes de éste.

• Los choques moleculares son perfectamente elásticos. No hay pérdida de energía

cinética.

• No se tienen en cuenta las interacciones de atracción y repulsión molecular.

Page 29: fisica unam.pdf

• La energía cinética media de la translación de una molécula es directamente

proporcional a la temperatura absoluta del gas.

En estas circunstancias, la ecuación de los gases se encuentra teóricamente:

[pic]

donde κB es la constante de Boltzmann, donde N es el número de partículas.

[editar] La ecuación de estado para gases reales

Artículo principal: Ley de los gases reales

|Valores de R |

|[pic] |

|[pic] |

|[pic] |

|[pic] |

|[pic] |

|[pic] |

|[pic] |

|[pic] |

|[pic] |

Haciendo una corrección a la ecuación de estado de un gas ideal, es decir, tomando en

cuenta las fuerzas intermoleculares y volúmenes intermoleculares finitos, se obtiene la

ecuación para gases reales, también llamada ecuación de Van der Waals:

[pic]

Donde:

Page 30: fisica unam.pdf

• [pic]= Presión del gas

• [pic]= Volumen del gas

• [pic]= Moles de gas.

• [pic]= Constante universal de los gases ideales

• [pic]= Temperatura.

• [pic]y [pic]son constantes determinadas por la naturaleza del gas con el fin de que

haya la mayor congruencia posible entre la ecuación de los gases reales y el

comportamiento observado experimentalmente.

[editar] Ecuación general de los gases ideales

Partiendo de la ecuación de estado:

[pic]

Tenemos que:

[pic]

Donde R es la constante universal de los gases ideales, luego para dos estados del

mismo gas, 1 y 2:

[pic]

Para una misma masa gaseosa (por tanto, el número de moles «n» es constante),

podemos afirmar que existe una constante directamente proporcional a la presión y

volumen del gas, e inversamente proporcional a su temperatura.

[pic]

[editar] Formas alternativas

Page 31: fisica unam.pdf

Como la cantidad de sustancia podría ser dada en masa en lugar de moles, a veces es

útil una forma alternativa de la ley del gas ideal. El número de moles (n) es igual a la masa

(m) dividido por la masa molar (M):

[pic]

y sustituyendo [pic], obtenemos:

[pic]

donde:

[pic]

Esta forma de la ley del gas ideal es muy útil porque se vincula la presión, la densidad ρ =

m/ V, y la temperatura en una fórmula única, independiente de la cantidad del gas

considerado.

En mecánica estadística las ecuaciones moleculares siguientes se derivan de los

principios básicos:

[pic]

Aquí k es el constante de Boltzmann y N es el número actual de moléculas, a diferencia

de la otra fórmula, que utiliza n, el número de moles. Esta relación implica que Nk = nR, y

la coherencia de este resultado con el experimento es una buena comprobación en los

principios de la mecánica estadística.

Desde aquí podemos observar que para que una masa de la partícula promedio de μ

veces la constante de masa atómica m U (es decir, la masa es μ U)

[pic]

y desde ρ = m/ V, nos encontramos con que la ley del gas ideal puede escribirse como:

[pic]

5. Ondas

Page 32: fisica unam.pdf

5.1 Caracterización de ondas mecánicas

Ondas mecánicas: las ondas mecánicas necesitan un medio elástico (sólido, líquido o

gaseoso) para propagarse. Las partículas del medio oscilan alrededor de un punto fijo, por

lo que no existe transporte neto de materia a través del medio. Como en el caso de una

alfombra o un látigo cuyo extremo se sacude, la alfombra no se desplaza, sin embargo

una onda se propaga a través de ella. Dentro de las ondas mecánicas tenemos las ondas

elásticas, las ondas sonoras y las ondas de gravedad.

5.2 Reflexión y refracción de ondas

En los medios elásticos y homogéneos, las ondas se propagan en línea recta. Ahora bien,

la dirección de desplazamiento de los movimientos ondulatorios se modifica cuando la

onda llega a la frontera de separación entre dos medios diferentes. En estos casos se

producen los conocidos efectos de reflexión, refracción y dispersión de ondas.

5.3 Difracción e interferencia de ondas

En física, la difracción es un fenómeno característico de las ondas, éste se basa en el

curvado y esparcido de las ondas cuando encuentran un obstáculo o al atravesar una

rendija. La difracción ocurre en todo tipo de ondas, desde ondas sonoras, ondas en la

superficie de un fluido y ondas electromagnéticas como la luz y las ondas de radio.

También sucede cuando un grupo de ondas de tamaño finito se propaga; por ejemplo, por

causa de la difracción, un haz angosto de ondas de luz de un láser deben finalmente

divergir en un rayo más amplio a una cierta distancia del emisor.

Comparación entre los patrones de difracción e interferencia producidos por una doble

rendija (arriba) y cinco rendijas (abajo).El fenómeno de la difracción es un fenómeno de

tipo interferencial y como tal requiere la superposición de ondas coherentes entre sí.

Se produce cuando la longitud de onda es mayor que las dimensiones del objeto, por

tanto, los efectos de la difracción disminuyen hasta hacerse indetectables a medida que el

tamaño del objeto aumenta comparado con la longitud de onda.

Page 33: fisica unam.pdf

En el espectro electromagnético los Rayos X tienen longitudes de onda similares a las

distancias interatómicas en la materia. Es posible por lo tanto utilizar la difracción de rayos

X como un método para explorar la naturaleza de la estructura cristalina. La difracción

producida por una estructura cristalina verifica la ley de Bragg.

Debido a la dualidad onda-corpúsculo característica de la mecánica cuántica es posible

observar la difracción de partículas como neutrones o electrones. En los inicios de la

mecánica cuántica este fue uno de los argumentos más claros a favor de la descripción

ondulatoria que realiza la mecánica cuántica de las partículas subatómicas.

Como curiosidad, esta técnica se utilizó para intentar descubrir la estructura del ADN, y

fue una de las pruebas experimentales de su estructura de doble hélice propuesta por

James Watson y Francis Crick en 1953.

5.4 Energía de una onda incidente y de las ondas transmitida y reflejada

Todo movimiento ondulatorio al incidir sobre la superficie que separa dos medios de

distintas propiedades mecánicas, ópticas, etc., en parte se refleja y en parte se transmite.

La velocidad de propagación de las ondas cambia al pasar de un medio a otro, pero no

cambia la frecuencia angular ω.

Supongamos un movimiento ondulatorio se propaga a lo largo de dos cuerdas, la cuerda

de la izquierda tiene una densidad lineal m1 y la cuerda de la derecha tiene una densidad

lineal m2.

[pic]

El movimiento ondulatorio transversal se propaga en ellas con velocidades

respectivamente de

[pic]

Siendo T la tensión de las cuerdas.

Ondas incidente, reflejada y trasmitida

Page 34: fisica unam.pdf

Situamos el origen en el punto de unión de las cuerdas. A la izquierda del origen tenemos

una onda armónica incidente cuyo número de onda es k1 tal que k1v1=ω , que se

propaga de izquierda a derecha.

Ψ i=Ψ 0isen (k1x-ω t)

Y una onda reflejada que se propaga con la misma velocidad de derecha a izquierda

Ψ r=Ψ 0rsen (k1x+ω t)

En la segunda cuerda, tenemos una onda transmitida que se propaga de izquierda a

derecha y cuyo número de onda es k2 tal que k2v2=ω .

Ψ t=Ψ 0tsen (k2x-ω t)

A la izquierda del origen tenemos la superposición de dos movimientos ondulatorios, el

incidente más el reflejado, Ψ 1=Ψ i+Ψ r

A la derecha del origen solamente tenemos movimiento ondulatorio correspondiente a la

onda transmitida, Ψ 2=Ψ t

Relación entre las amplitudes de la onda incidente, reflejada y trasmitida

En el punto de discontinuidad o de unión de ambas cuerdas, el origen, x=0, el

desplazamiento vale Ψ 1=Ψ 2, es decir

Ψ 0isen (-ω t)+Ψ 0rsen (ω t)=Ψ 0tsen (-ω t)

Simplificando

-Ψ 0i+Ψ 0r=-Ψ 0t

Al estudiar las ondas transversales en una cuerda obtuvimos la expresión de la fuerza

vertical Fy en cualquier punto de la cuerda.

[pic]

En el origen se debe de cumplir que

[pic]

Derivando y simplificando se obtiene,

Page 35: fisica unam.pdf

k1(Ψ 0i+Ψ 0r)=k2Ψ 0t

Desde el punto de vista matemático decimos, que en el punto de discontinuidad situado

en el origen, la función que describe el movimiento ondulatorio debe ser continua y

también lo debe ser su derivada primera. Una situación análoga la encontraremos en

Mecánica Cuántica al estudiar el escalón de potencial.

Tenemos dos ecuaciones, que nos permiten relacionar Ψ 0r y Ψ 0t en función de la

amplitud de la onda incidente Ψ 0i

[pic]

Expresando el número de onda k1 y k2 en términos de las velocidades de propagación

respectivas v1 y v2

[pic]

6. Electromagnetismo

6.1 Efectos cualitativos entre cuerpos cargados eléctricamente

6.2 Ley de Coulomb. Campo eléctrico

La Ley de Coulomb lleva su nombre en honor a Charles-Augustin de Coulomb, uno de sus

descubridores y el primero en publicarlo. No obstante, Henry Cavendish obtuvo la

expresión correcta de la ley, con mayor precisión que Coulomb, si bien esto no se supo

hasta después de su muerte.

El enunciado que describe la ley de Coulomb es el siguiente:

―La magnitud de cada una de las fuerzas eléctricas con que interactúan dos cargas

puntuales es directamente proporcional al producto de las cargas e inversamente

proporcional al cuadrado de la distancia que las separa.‖ Esta ley es válida sólo en

condiciones estacionarias, es decir, cuando no hay movimiento de las cargas o, como

aproximación, el movimiento se realiza a velocidades bajas y trayectorias rectilíneas

uniformes. Se le llama a esta Fuerza Electrostática. La parte Electro proviene de que se

trata de fuerzas eléctricas y estática debido a la ausencia de movimiento de las cargas.

En términos matemáticos, la magnitud de la fuerza que cada una de las dos cargas

puntuales y ejerce sobre la otra separadas por una distancia se expresa como:

Page 36: fisica unam.pdf

Dadas dos cargas puntuales y separadas una distancia en el vacío, se atraen o repelen

entre sí con una fuerza cuya magnitud esta dada por:

La Ley de Coulomb se expresa mejor con magnitudes vectoriales:

donde es un vector unitario que va en la dirección de la recta que une las cargas, siendo

su sentido desde la carga que produce la fuerza hacia la carga que la experimenta.

El exponente (de la distancia: d) de la Ley de Coulomb es, hasta donde se sabe hoy en

día, exactamente 2. Experimentalmente se sabe que, si el exponente fuera de la forma ,

entonces.

Representación gráfica de la Ley de Coulomb para dos cargas del mismo signo.

Obsérvese que esto satisface la tercera de la ley de Newton debido a que implica que

fuerzas de igual magnitud actúan sobre y . La ley de Coulomb es una ecuación vectorial e

incluye el hecho de que la fuerza actúa a lo largo de la línea de unión entre las cargas.

Constante de Coulomb [editar]

La constante es la Constante de Coulomb y su valor para unidades SI es Nm /C .

A su vez la constante donde es la permitividad relativa, , y F/m es la permitividad del

medio en el vacío. Cuando el medio que rodea a las cargas no es el vacío hay que tener

en cuenta la constante dieléctrica y la permitividad del material.

6.3 Ley de Ohm y potencia eléctrica

La Ley de Ohm afirma que la corriente que circula por un conductor eléctrico es

directamente proporcional a la tensión e inversamente proporcional a la resistencia

siempre y cuando su temperatura se mantenga constante.

La ecuación matemática que describe esta relación es:

[pic]

Donde, I es la corriente que pasa a través del objeto en amperios, V es la diferencia de

potencial de las terminales del objeto en voltios, y R es la resistencia en ohmios (Ω).

Específicamente, la ley de Ohm dice que la R en esta relación es constante,

independientemente de la corriente.

Esta ley tiene el nombre del físico alemán Georg Ohm, que en un tratado publicado en

1827, halló valores de tensión y corriente que pasaba a través de unos circuitos eléctricos

simples que contenían una gran cantidad de cables. Él presentó una ecuación un poco

Page 37: fisica unam.pdf

más compleja que la mencionada anteriormente para explicar sus resultados

experimentales. La ecuación de arriba es la forma moderna de la ley de Ohm.

6.4 Circuitos

6.4.1 Circuitos de resistencias

Es interesante considerar `circuitos' formados por varias resistencias, conectadas de

diversas maneras. Antes de entrar en mayores detalles respecto a estos circuitos,

describiremos algunas de las formas mas comunes de conectar resistencias entre sí, a la

vez que introducir el concepto de `resistencia equivalente'.

Consideremos un elemento resistivo; esto es, un conductor con conductividad finita g (un

conductor perfecto tiene conductividad infinita). Si, por esta resistencia, pasa una corriente

I, y la resistencia entre sus extremos a y b es Rab, entonces la diferencia de potencial Vab

entre los extremos es

Vab = RabI.

6.4.2 Circuitos de condensadores

En electricidad y electrónica, un condensador (del latín "condensare") es un dispositivo

que almacena energía eléctrica, es un componente pasivo. Está formado por un par de

superficies conductoras en situación de influencia total (esto es, que todas las líneas de

campo eléctrico que parten de una van a parar a la otra), generalmente en forma de

tablas, esferas o láminas, separadas por un material dieléctrico (siendo este utilizado en

un condensador para disminuir el campo eléctrico, ya que actúa como aislante) o por el

vacío, que, sometidas a una diferencia de potencial (d.d.p.) adquieren una determinada

carga eléctrica, positiva en una de las placas y negativa en la otra (siendo nula la carga

total almacenada).

La carga almacenada en una de las placas es proporcional a la diferencia de potencial

entre esta placa y la otra, siendo la constante de proporcionalidad la llamada capacidad o

capacitancia. En el Sistema internacional de unidades se mide en Faradios (F), siendo 1

faradio la capacidad de un condensador en el que, sometidas sus armaduras a una d.d.p.

de 1 voltio, éstas adquieren una carga eléctrica de 1 culombio.

La capacidad de 1 faradio es mucho más grande que la de la mayoría de los

condensadores, por lo que en la práctica se suele indicar la capacidad en micro- µF = 10-

Page 38: fisica unam.pdf

6, nano- nF = 10-9 o pico- pF = 10-12 -faradios. Los condensadores obtenidos a partir de

supercondensadores (EDLC) son la excepción. Están hechos de carbón activado para

conseguir una gran área relativa y tienen una separación molecular entre las "placas". Así

se consiguen capacidades del orden de cientos o miles de faradios. Uno de estos

condensadores se incorpora en el reloj Kinetic de Seiko, con una capacidad de 1/3 de

Faradio, haciendo innecesaria la pila. También se está utilizando en los prototipos de

automóviles eléctricos.

El valor de la capacidad de un condensador viene definido por la siguiente fórmula:

[pic]

en donde:

C: Capacitancia

Q1: Carga eléctrica almacenada en la placa 1.

V1 − V2: Diferencia de potencial entre la placa 1 y la 2.

Nótese que en la definición de capacidad es indiferente que se considere la carga de la

placa positiva o la de la negativa, ya que

[pic]

aunque por convenio se suele considerar la carga de la placa positiva.

En cuanto al aspecto constructivo, tanto la forma de las placas o armaduras como la

naturaleza del material dieléctrico son sumamente variables. Existen condensadores

formados por placas, usualmente de aluminio, separadas por aire, materiales cerámicos,

mica, poliéster, papel o por una capa de óxido de aluminio obtenido por medio de la

electrólisis

6.5 Campo magnético

El campo magnético es una región del espacio en la cual una carga eléctrica puntual de

valor que se desplaza a una velocidad [pic], sufre los efectos de una fuerza que es

perpendicular y proporcional tanto a la velocidad como al campo. Así, dicha carga

percibirá una fuerza descrita con la siguiente igualdad.

[pic]

donde F es la fuerza, v es la velocidad y B el campo magnético, también llamado

inducción magnética y densidad de flujo magnético. (Nótese que tanto F como v y B son

Page 39: fisica unam.pdf

magnitudes vectoriales y el producto vectorial tiene como resultante un vector

perpendicular tanto a v como a B). El módulo de la fuerza resultante será

[pic]

La existencia de un campo magnético se pone de relieve gracias a la propiedad localizada

en el espacio de orientar un magnetómetro (laminilla de acero imantado que puede girar

libremente). La aguja de una brújula, que evidencia la existencia del campo magnético

terrestre, puede ser considerada un magnetómetro.

6.6 Inducción electro magnética

La inducción electromagnética es el fenómeno que origina la producción de una fuerza

electromotriz (f.e.m. o voltaje) en un medio o cuerpo expuesto a un campo magnético

variable, o bien en un medio móvil respecto a un campo magnético estático. Es así que,

cuando dicho cuerpo es un conductor, se produce una corriente inducida. Este fenómeno

fue descubierto por Michael Faraday quien lo expresó indicando que la magnitud del

voltaje inducido es proporcional a la variación del flujo magnético (Ley de Faraday).

Por otra parte, Heinrich Lenz comprobó que la corriente debida a la f.e.m. inducida se

opone al cambio de flujo magnético, de forma tal que la corriente tiende a mantener el

flujo. Esto es válido tanto para el caso en que la intensidad del flujo varíe, o que el cuerpo

conductor se mueva respecto de él.

6.7 Relación entre campo magnético y eléctrico

ADEMÁS de sus notables descubrimientos experimentales Faraday hizo una

contribución teórica que ha tenido una gran influencia en el desarrollo de la física hasta la

actualidad: el concepto de línea de fuerza y asociado a éste, el de campo.

Oersted había escrito que el efecto magnético de una corriente eléctrica que circula por

un alambre conductor se esparce en el espacio fuera del alambre. De esta forma la aguja

de una brújula lo podrá sentir y girar debido a la fuerza que experimenta.

Por otro lado, ya desde tiempos de Gilbert se habían hecho experimentos como el

mencionado en el capítulo IV, el de una barra magnética con limaduras de hierro, donde

se puede apreciar que las limaduras se orientan a lo largo de ciertas líneas.

Page 40: fisica unam.pdf

Asimismo, desde la época de Newton se trató de encontrar el mecanismo por medio del

cual dos partículas separadas cierta distancia experimentan una fuerza, por ejemplo, la de

atracción gravitacional. Entre los científicos de esa época y hasta tiempos de Faraday se

estableció la idea de que existía la llamada acción a distancia. Esto significa que las dos

partículas experimentan una interacción instantánea. Así, por ejemplo, si una de las

partículas se mueve y cambia la distancia entre ellas, la fuerza cambia instantáneamente

al nuevo valor dado en términos de la nueva distancia entre ellas.

Antes de Faraday la idea de las líneas de fuerza se había tratado como un artificio

matemático. Estas líneas de fuerza ya se habían definido de la siguiente forma:

supongamos que hay una fuerza entre dos tipos de partículas, por ejemplo, eléctricas.

Sabemos que si son de cargas iguales se repelen, mientras que si sus cargas son

opuestas se atraen. Consideremos una partícula eléctrica positiva (Figura 8(a)), que

llamaremos 1. Tomemos ahora otra partícula, la 2, también positiva, pero de carga mucho

menor que la 1. A esta partícula 2 la llamaremos de prueba, pues con ella veremos qué

pasa en el espacio alrededor de la partícula 1. La fuerza entre ellas se muestra en la

figura. Ahora dejemos que la partícula de prueba se mueva un poco. Debido a que es

repelida por la 1 se alejará y llegará a una nueva posición que se muestra en la figura

8(b). Si se vuelve a dejar que la partícula de prueba se mueva un poco llegará a otra

posición, y así sucesivamente. La trayectoria que sigue la partícula de prueba al moverse

en la forma descrita es una línea de fuerza. Nos damos cuenta de que la fuerza que

experimenta la partícula de prueba es siempre tangente a la línea de fuerza. Ahora

podemos repetir la experiencia colocando la partícula de prueba en otro lugar y así formar

la línea de fuerza correspondiente. De esta manera podemos llenar todo el espacio que

rodea a la partícula 1 de líneas de fuerza, y nos percatamos de que todas ellas salen de la

partícula 1.

Si la partícula 1 fuera de carga negativa, las líneas de fuerza tendrían sentido opuesto a

las anteriores, pues la partícula 1 atraería a la 2.

De esta forma se pueden encontrar las líneas de fuerza de cualquier conjunto de cargas

eléctricas. En general éstas son líneas curvas que empiezan en cargas positivas y

terminan en cargas negativas.

[pic]

Page 41: fisica unam.pdf

Figura 8. Forma en que se define la línea de fuerza del campo eléctrico.

En cada caso la fuerza que experimentaría una partícula de prueba de carga positiva que

se colocara en cualquier punto del espacio tendría una dirección que sería tangente a la

línea de fuerza en ese punto.

Podemos por tanto afirmar que para cualquier distribución de carga la(s) partícula(s)

crea(n) una situación en el espacio a su alrededor tal, que si se coloca una partícula de

prueba en cualquier punto, la fuerza que experimenta la partícula de prueba es tangente a

la línea de fuerza. Se dice que cualquier distribución de carga eléctrica crea a su

alrededor una situación que se llama campo eléctrico.

De manera completamente análoga se pueden definir las líneas de fuerza magnéticas. Al

colocar una limadura de hierro ésta se magnetiza y se orienta en una dirección tangente a

la línea de fuerza. Las limaduras de hierro desempeñan el papel de sondas de prueba

para investigar qué situación magnética se crea alrededor de los agentes que crean el

efecto magnético. En el capítulo anterior hablamos del efecto magnético que se produce

en el espacio. Este efecto es el campo magnético.

Al cambiar la disposición de las cargas eléctricas, imanes o corrientes eléctricas, es claro

que las líneas de fuerza que producen en el espacio a su alrededor también cambian. El

efecto que se produce en el espacio constituye un campo. Así tenemos tanto un campo

eléctrico como uno magnético. Por tanto, un campo es una situación que un conjunto de

cargas eléctricas o imanes y corrientes eléctricas producen en el espacio que los rodea.

Fue Faraday quien proporcionó una realidad física a la idea de campo, y basándose en

ello se dio cuenta de que si se cambia la posición física de cualquier partícula eléctrica en

una distribución, entonces el campo eléctrico que rodea a ésta también deberá cambiar y

por tanto, al colocar una partícula de prueba en cualquier punto, la fuerza que

experimenta cambiará. Sin embargo, a diferencia de la acción a distancia, estos cambios

tardan cierto intervalo de tiempo en ocurrir, no son instantáneos. Otro ejemplo es cuando

una corriente eléctrica que circula por un alambre cambia abruptamente. Faraday se

preguntó si el cambio en el campo magnético producido ocurría instantáneamente o si

tardaba en ocurrir, pero no pudo medir estos intervalos de tiempo ya que en su época no

se disponía del instrumental adecuado. (Incluso hizo varios intentos infructuosos por

diseñar un instrumento que le sirviera a este propósito al final de su vida.) Sin embargo,

no tuvo la menor duda de que en efecto transcurría un intervalo finito de tiempo en el que

Page 42: fisica unam.pdf

se propagaba el cambio. Así, Faraday argumentó que la idea de acción a distancia no

podía ser correcta.

Hemos de mencionar que no fue sino hasta el año de 1887 cuando se midió en un

laboratorio por primera vez, y se comprobó que este tipo de propagación ocurre en un

tiempo finito. El experimento fue hecho por Heinrich Hertz y lo describiremos más

adelante.

Faraday dio otro argumento para rechazar la idea de acción a distancia. La fuerza entre

dos partículas eléctricamente cargadas no solamente depende de la distancia entre ellas

sino también de lo que haya entre ellas. Si las partículas están en el vacío, la fuerza

tendrá cierto valor, pero si hay alguna sustancia entre ellas el valor de la fuerza cambiará.

Faraday realizó varios experimentos para confirmar sus afirmaciones. Escribió que el

medio que se encuentre entre las partículas causa una diferencia en la transmisión de la

acción eléctrica, lo que ocasiona que no pueda haber acción a distancia. Por lo tanto, la

acción entre las partículas se debe transmitir, punto a punto, a través del medio

circundante.

Fue en 1837 que Faraday propuso la idea de que la línea de fuerza tenía realidad física.

Con ello demostró tener una gran intuición física para entender los fenómenos

electromagnéticos. Hay que mencionar que debido a que no tenía preparación

matemática adecuada, por no haber asistido a una escuela de enseñanza superior,

Faraday no pudo desarrollar la teoría matemática del campo electromagnético, hecho que

tuvo que esperar hasta Maxwell. Sin embargo, tuvo el genio extraordinario para describir

esta idea de manera gráfica.

6.8 Inducción de campos

El campo magnético es una región del espacio en la cual una carga eléctrica puntual de

valor que se desplaza a una velocidad [pic], sufre los efectos de una fuerza que es

perpendicular y proporcional tanto a la velocidad como al campo. Así, dicha carga

percibirá una fuerza descrita con la siguiente igualdad.

[pic]

donde F es la fuerza, v es la velocidad y B el campo magnético, también llamado

inducción magnética y densidad de flujo magnético. (Nótese que tanto F como v y B son

Page 43: fisica unam.pdf

magnitudes vectoriales y el producto vectorial tiene como resultante un vector

perpendicular tanto a v como a B). El módulo de la fuerza resultante será

[pic]

La existencia de un campo magnético se pone de relieve gracias a la propiedad localizada

en el espacio de orientar un magnetómetro (laminilla de acero imantado que puede girar

libremente). La aguja de una brújula, que evidencia la existencia del campo magnético

terrestre, puede ser considerada un magnetómetro

6.9 La luz como onda electromagnética

Se llama luz (del latín lux, lucis) a la radiación electromagnética que puede ser percibida

por el ojo humano. En física, el término luz se usa en un sentido más amplio e incluye el

rango entero de radiación conocido como el espectro electromagnético, mientras que la

expresión luz visible denota la radiación en el espectro visible.

La óptica es la rama de la física que estudia el comportamiento de la luz, sus

características y sus manifestaciones

6.10 Espectro electro magnético

Se denomina espectro electromagnético a la distribución energética del conjunto de las

ondas electromagnéticas. Referido a un objeto se denomina espectro electromagnético o

simplemente espectro a la radiación electromagnética que emite (espectro de emisión) o

absorbe (espectro de absorción) una sustancia. Dicha radiación sirve para identificar la

sustancia de manera análoga a una huella dactilar. Los espectros se pueden observar

mediante espectroscopios que, además de permitir observar el espectro, permiten realizar

medidas sobre éste, como la longitud de onda, la frecuencia y la intensidad de la

radiación.

Diagrama del espectro electromagnético, mostrando el tipo, longitud de onda con

ejemplos, frecuencia y temperatura de emisión de cuerpo negro.El espectro

electromagnético se extiende desde la radiación de menor longitud de onda, como los

rayos gamma y los rayos X, pasando por la luz ultravioleta, la luz visible y los rayos

infrarrojos, hasta las ondas electromagnéticas de mayor longitud de onda, como son las

ondas de radio. Se cree que el límite para la longitud de onda más pequeña posible es la

Page 44: fisica unam.pdf

longitud de Planck mientras que el límite máximo sería el tamaño del Universo (véase

Cosmología física) aunque formalmente el espectro electromagnético es infinito y

continuo.

6.11 Leyes de Ampere –Maxwell

En física del magnetismo, la ley de Ampère, descubierta por André-Marie Ampère en

1826,[1] relaciona un campo magnético estático con la causa que la produce, es decir,

una corriente eléctrica estacionaria. James Clerk Maxwell la corrigió posteriormente y

ahora es una de las ecuaciones de Maxwell, formando parte del electromagnetismo de la

física clásica.

Ley de Ampère original

En su forma original, la Ley de Ampère relaciona el campo magnético con la corriente

eléctrica que lo genera.

La Ley se puede escribir de dos maneras, la "forma integral" y la "forma diferencial ".

Ambas formas son equivalentes, y se relacionan por el teorema de Stokes.

[editar] Forma integral

Dada una superficie abierta S por la que atraviesa una corriente eléctrica I, y dada la

curva C, curva contorno de la superficie S, la forma original de la ley de Ampère para

medios materiales es:

[pic]

donde

[pic]es la intensidad del campo magnético,

[pic]es la densidad de corriente eléctrica,

Page 45: fisica unam.pdf

[pic]es la corriente encerrada en la curva C,

Y se lee: La circulación del campo [pic]a lo largo de la curva C es igual al flujo de la

densidad de corriente sobre la superficie abierta S, de la cual C es el contorno.

En presencia de un material magnético en el medio, aparecen campos de magnetización,

propios del material, análogamente a los campos de polarización que aparecen en el caso

electrostático en presencia de un material dieléctrico en un campo eléctrico.

Definición:

[pic]

[pic]

[pic]

donde

[pic]es la densidad de flujo magnético,

[pic]es la permeabilidad magnética del vacío,

[pic]es la permeabilidad magnética del medio material,

Luego, [pic]es la permeabilidad magnética total.

[pic]es el vector magnetización del material debido al campo magnético.

[pic]es la susceptibilidad magnética del material.

Un caso particular de interés es cuando el medio es el vacío ([pic] o sea, [pic]):

Page 46: fisica unam.pdf

[pic]

[editar] Forma diferencial

A partir del teorema de Stokes, esta ley también se puede expresar de forma diferencial:

[pic]

donde

[pic]es el operador rotacional

[pic]es la densidad de corriente que atraviesa el conductor.

6.12 Leyes de Faraday y Henry

En esta experiencia se demuestra la aparición de una corriente eléctrica en una espira,

cuando el campo magnético que atraviesa la superficie limitada por la misma varía con el

tiempo. A este proceso se le denomina inducción electromagnética y es el principio

fundamental del generador eléctrico, del transformador y de otros muchos dispositivos de

uso cotidiano. Fueron Michael Faraday, en Inglaterra, y Joseph Henry, en los Estados

Unidos, los que a principios de la década de 1830, descubrieron, independientemente,

este fenómeno físico.

Para realizar la experiencia de inducción electromagnética, se utilizará una bobina con un

gran número de espiras, conectada, mediante dos cables, a un amperímetro, así como un

imán.

En primer lugar, se ajusta el amperímetro, de modo que el cero quede en el centro de su

escala. Se observa, que cuando la corriente va en un determinado sentido, la aguja del

amperímetro se desplaza, por ejemplo, hacia la izquierda del cero, mientras que, si la

corriente cambia de sentido, la aguja se desplaza hacia la derecha. Para generar una

fuerza electromotriz inducida, y por tanto, una corriente inducida, se aleja o se acerca el

imán introduciéndolo y sacándolo de la bobina. Al acercar el imán, la aguja del

Page 47: fisica unam.pdf

amperímetro se desplaza hacia la izquierda, mientras que al alejarlo lo hace hacia la

derecha. Sin embargo, no existe corriente inducida si el imán está en reposo respecto de

la bobina. Puede verse en este caso, que la aguja del amperímetro no se mueve. Si se

cambia la orientación del imán, y por tanto, la de su campo magnético, se produce el

mismo fenómeno, pero ahora, el sentido de la corriente inducida es distinto que en el caso

anterior. También se observa cómo si el imán se acerca, o se aleja, más rápidamente, la

corriente inducida es mayor.

Se puede también generar una corriente en la bobina, manteniendo el imán en reposo y

moviendo únicamente la bobina respecto al imán, alejándola o acercándola. Al igual que

en los casos anteriores, cuando no hay movimiento relativo entre la bobina y el imán, no

existe corriente inducida, y por lo tanto, la aguja del amperímetro no se mueve.

El principio que explica la existencia de corrientes inducidas en la bobina cuando el flujo

electromagnético está variando se denomina ley de Faraday-Henry. Dicha ley establece

que la fuerza electromotriz, e, depende de la rapidez con la que varíe el flujo magnético, .

7. Fluidos

7.1 Fluidos en reposo

Fluido: Se dice del cuerpo cuyas moléculas tienen entre sí poca o ninguna coherencia.

Los fluidos pueden ser líquidos (como agua, aceite, glicerina, etc.) o gases (como aire,

oxígeno, nitrógeno, etc.)

Cuando un líquido se encuentra en un recipiente, tiende a tomar la forma del contenedor,

cubriendo el fondo y sus lados, la superficie superior, que esta en contacto con la

atmósfera mantiene un nivel uniforme, a medida que el recipiente se va inclinando, el

líquido tiende a derramarse; la rapidez con que se derrama depende de una propiedad

conocida como viscosidad, que posteriormente veremos

Page 48: fisica unam.pdf

En cambio un gas encerado en un contenedor, tiende a expandirse y llenar

completamente el recipiente que le contiene. Si este se abre, el gas tiende a seguir

expandiéndose y escapar del contenedor.

Además de estas diferencias hay otra muy importante que nos concierne

Los líquidos son sólo ligeramente compresibles

Los gases son fácilmente compresibles.

La compresibilidad se refiere al cambio de volumen cuando hay una variación de presión.

las máquinas accionadas hidráulicamente se dividen en dos grandes grupos

hidrodinámica e hidrostática.

La hidrodinámica es la ciencia de los líquidos en movimiento y la hidrostática la de los

líquidos en reposo que se basa en la Ley de Pascal.

7.1.1 Presión atmosférica

La presión atmosférica es la presión ejercida por el aire atmosférico en cualquier punto de

la atmósfera. Normalmente se refiere a la presión atmosférica terrestre, pero el término es

generalizable a la atmósfera de cualquier planeta o satélite.

La presión atmosférica en un punto representa el peso de una columna de aire de área de

sección recta unitaria que se extiende desde ese punto hasta el límite superior de la

atmósfera. Como la densidad del aire disminuye conforme aumenta la altura, no se puede

calcular ese peso a menos que seamos capaces de expresar la variación de la densidad

del aire ρ en función de la altitud z o de la presión p. Por ello, no resulta fácil hacer un

Page 49: fisica unam.pdf

cálculo exacto de la presión atmosférica sobre la superficie terrestre; por el contrario, es

muy fácil medirla.

La presión atmosférica en un lugar determinado experimenta variaciones asociadas con

los cambios meteorológicos. Por otra parte, en un lugar determinado, la presión

atmosférica disminuye con la altitud, como se ha dicho. La presión atmosférica decrece a

razón de 1 mmHg o Torr por cada 10 m de elevación en los niveles próximos al del mar.

En la práctica se utilizan unos instrumentos, llamados altímetros, que son simples

barómetros aneroides calibrados en alturas; estos instrumentos no son muy precisos.

La presión atmosférica normalizada, 1 atmósfera, fue definida como la presión

atmosférica media al nivel del mar que se adoptó como exactamente 101 325 Pa o 760

Torr. Sin embargo, a partir de 1982, la IUPAC recomendó que se trata de especificar las

propiedades físicas de las sustancias "el estándar de presión" debía definirse como

exactamente 100 kPa o (≈750,062 Torr). Aparte de ser un número redondo, este cambio

tiene una ventaja práctica porque 100 kPa equivalen a una altitud aproximada de 112

metros, que está cercana al promedio de 194 m de la población mundial.[1]

7.1.2 Principio de Pascal

En física, el principio de Pascal o ley de Pascal, es una ley enunciada por el físico y

matemático francés Blaise Pascal (1623-1662) que se resume en la frase: la presión

ejercida en cualquier parte de un fluido incompresible y en equilibrio dentro en un

recipiente de paredes indeformables, se transmite con igual intensidad en todas las

direcciones y en todos los puntos del fluido

El principio de Pascal puede comprobarse utilizando una esfera hueca, perforada en

diferentes lugares y provista de un émbolo. Al llenar la esfera con agua y ejercer presión

sobre ella mediante el émbolo, se observa que el agua sale por todos los agujeros con la

misma velocidad y por lo tanto con la misma presión.

También podemos ver aplicaciones del principio de Pascal en las prensas hidráulicas, en

los elevadores hidráulicos y en los frenos hidráulicos.

7.1.3 Principio de Arquímedes

Page 50: fisica unam.pdf

El principio de Arquímedes es un principio físico que afirma que un cuerpo total o

parcialmente sumergido en un fluido en reposo, será empujado con una fuerza vertical

ascendente igual al peso del fluido desplazado por dicho cuerpo. Esta fuerza recibe el

nombre de empuje hidrostático o de Arquímedes, y se mide en newtons (en el SI). El

principio de Arquímedes se formula así:

[pic]

Donde ρf es la densidad del fluido, V el volumen del cuerpo sumergido y g la aceleración

de la gravedad, de este modo, el empuje depende de la densidad del fluido, del volumen

del cuerpo y de la gravedad existente en ese lugar. El empuje actúa siempre

verticalmente hacia arriba y está aplicado en el centro de gravedad del fluido desalojado

por el cuerpo; este punto recibe el nombre de centro de carena.

7.1.4 Presión hidrostática

Un fluido pesa y ejerce presión sobre las paredes sobre el fondo del recipiente que lo

contiene y sobre la superficie de cualquier objeto sumergido en él. Esta presión, llamada

presión hidrostática, provoca, en fluidos en reposo, una fuerza perpendicular a las

paredes del recipiente o a la superficie del objeto sumergido sin importar la orientación

que adopten las caras. Si el líquido fluyera, las fuerzas resultantes de las presiones ya no

serían necesariamente perpendiculares a las superficies. Esta presión depende de la

densidad del líquido en cuestión y de la altura a la que esté sumergido el cuerpo y se

calcula mediante la siguiente expresión:

[pic]

Donde, usando unidades del SI,

• [pic]es la presión hidrostática (en pascales);

• [pic]es la densidad del líquido (en kilogramos sobre metro cúbico);

• [pic]es la aceleración de la gravedad (en metros sobre segundo al cuadrado);

• [pic]es la altura del fluido (en metros). Un liquido en equilibrio ejerce fuerzas

perpendiculares sobre cualquier superficie sumergida en su interior

• [pic]es la presión atmosférica

7.1.5 Tensión superficial y capilaridad

Page 51: fisica unam.pdf

En física se denomina tensión superficial de un líquido a la cantidad de energía necesaria

para aumentar su superficie por unidad de área.[1] Esta definición implica que el líquido

tiene una resistencia para aumentar su superficie. Este efecto permite a algunos insectos,

como el zapatero (Gerris lacustris), desplazarse por la superficie del agua sin hundirse. La

tensión superficial (una manifestación de las fuerzas intermoleculares en los líquidos),

junto a las fuerzas que se dan entre los líquidos y las superficies sólidas que entran en

contacto con ellos, da lugar a la capilaridad.Fuerza que actúa tangencialmente por unidad

de longitud en el borde de una superficie libre de un líquido en equilibrio y que tiende a

contraer dicha superficie. en pocas palabras la elevación o depresión de la superficie de

un liquido en la zona de contacto con un solido.

7.2 Fluidos en movimiento

DINÁMICA DE FLUIDOS O HIDRODINÁMICA

Esta rama de la mecánica de fluidos se ocupa de las leyes de los fluidos en movimiento;

estas leyes son enormemente complejas, y aunque la hidrodinámica tiene una

importancia práctica mayor que la hidrostática, sólo podemos tratar aquí algunos

conceptos básicos.

El interéspor la dinámica de fluidos se remonta a las aplicaciones más antiguas de los

fluidos en ingeniería. Arquímedes realizó una de las primeras contribuciones con la

invención, que se le atribuye tradicionalmente, del tornillo sin fin. La acción impulsora del

tornillo de Arquímedes es similar a la de la pieza semejante a un sacacorchos que tienen

las picadoras de carne manuales. Los romanos desarrollaron otras máquinas y

mecanismos hidráulicos; no sólo empleaban el tornillo de Arquímedes para bombear agua

en agricultura y minería, sino que también construyeron extensos sistemas de

acueductos, algunos de los cuales todavía funcionan. En el siglo I a.C., el arquitecto e

ingeniero romano Vitrubio inventó la rueda hidráulica horizontal, con lo que revolucionó la

técnica de moler grano.

A pesar de estas tempranas aplicaciones de la dinámica de fluidos, apenas se

comprendía la teoría básica, por lo que su desarrollo se vio frenado. Después de

Arquímedes pasaron más de 1.800 años antes de que se produjera el siguiente avance

científico significativo, debido al matemático y físico italiano Evangelista Torricelli, que

inventó el barómetro en 1643 y formuló el teorema de Torricelli, que relaciona la velocidad

Page 52: fisica unam.pdf

de salida de un líquido a través de un orificio de un recipiente, con la altura del líquido

situado por encima de dicho agujero. El siguiente gran avance en el desarrollo de la

mecánica de fluidos tuvo que esperar a la formulación de las leyes del movimiento por el

matemático y físico inglés Isaac Newton. Estas leyes fueron aplicadas por primera vez a

los fluidos por el matemático suizo Leonhard Euler, quien dedujo las ecuaciones básicas

para un fluido sin rozamiento (no viscoso).

Euler fue el primero en reconocer que las leyes dinámicas para los fluidos sólo pueden

expresarse de forma relativamente sencilla si se supone que el fluido es incompresible e

ideal, es decir, si se pueden despreciar los efectos del rozamiento y la viscosidad. Sin

embargo, como esto nunca es así en el caso de los fluidos reales en movimiento, para

Gareth Williams los resultados de dicho análisis sólo pueden servir como estimación para

flujos en los que los efectos de la viscosidad son pequeños.

7.2.1 Ecuación de continuidad

En física, una ecuación de continuidad expresa una ley de conservación de forma

matemática, ya sea de forma integral como de forma diferencial.

Esta expresión expresa la idea de que la masa de fluido que entra por el extremo de un

tubo debe salir por el otro extremo.

En un fluido en movimiento, las moléculas poseen una velocidad determinada, de forma

que para conocer el movimiento del fluido hace falta determinar en cada instante su

correspondiente campo de velocidades.

Tratamos una pequeña masa de fluido que se mueve en un tubo. En la posición 2, con

una sección de valor A2, el fluido tiene una rapidez V2 y una densidad ρ2. Corriente abajo

en la posición 1 las cantidades son A1, V1 y ρ1.

ρ1∙A1∙V1 = ρ2∙A2∙V2

Cuando ρ1 = ρ2, que es el caso general tratándose del agua, se tiene:

Page 53: fisica unam.pdf

O de otra forma:

Q1 = Q2 (el caudal que entra es igual al que sale).

7.2.2 Ecuación de Bernoulli

Para el teorema matemático enunciado por Jakob Bernoulli, véase Teorema de Bernoulli.

[pic]

[pic]

Esquema del Principio de Bernoulli.

El principio de Bernoulli, también denominado ecuación de Bernoulli o Trinomio de

Bernoulli, describe el comportamiento de un fluido moviéndose a lo largo de una línea de

corriente. Fue expuesto por Daniel Bernoulli en su obra Hidrodinámica (1738) y expresa

que en un fluido ideal (sin viscosidad ni rozamiento) en régimen de circulación por un

conducto cerrado, la energía que posee el fluido permanece constante a lo largo de su

recorrido. La energía de un fluido en cualquier momento consta de tres componentes:

1. Cinética: es la energía debida a la velocidad que posea el fluido.

2. Potencial gravitacional: es la energía debido a la altitud que un fluido posea.

3. Energía de flujo: es la energía que un fluido contiene debido a la presión que posee.

La siguiente ecuación conocida como "Ecuación de Bernoulli" (Trinomio de Bernoulli)

consta de estos mismos términos.

[pic]

donde:

• V = velocidad del fluido en la sección considerada.

• g = aceleración gravitatoria

• z = altura en la dirección de la gravedad desde una cota de referencia.

• P = presión a lo largo de la línea de corriente.

• ρ = densidad del fluido.

Para aplicar la ecuación se deben realizar los siguientes supuestos:

Page 54: fisica unam.pdf

• Viscosidad (fricción interna) = 0 Es decir, se considera que la línea de corriente sobre

la cual se aplica se encuentra en una zona 'no viscosa' del fluido.

• Caudal constante

• Flujo incompresible, donde ρ es constante.

• La ecuación se aplica a lo largo de una línea de corriente o en un flujo irrotacional

Aunque el nombre de la ecuación se debe a Bernoulli, la forma arriba expuesta fue

presentada en primer lugar por Leonhard Euler.

Un ejemplo de aplicación del principio lo encontramos en el flujo de agua en tubería.

7.2.3 Viscosidad

La viscosidad es la oposición de un fluido a las deformaciones tangenciales. Un fluido que

no tiene viscosidad se llama fluido ideal. En realidad todos los fluidos conocidos presentan

algo de viscosidad, siendo el modelo de viscosidad nula una aproximación bastante

buena para ciertas aplicaciones.

Explicación de la viscosidad

Imaginemos un bloque sólido (no fluido) sometido a una fuerza tangencial (por ejemplo:

una goma de borrar sobre la que se sitúa la palma de la mano que empuja en dirección

paralela a la mesa.) En este caso (a), el material sólido opone una resistencia a la fuerza

aplicada, pero se deforma (b), tanto más cuanto menor sea su rigidez.

Si imaginamos que la goma de borrar está formada por delgadas capas unas sobre otras,

el resultado de la deformación es el desplazamiento relativo de unas capas respecto de

las adyacentes, tal como muestra la figura (c).

[pic]

Deformación de un sólido por la aplicación de una fuerza tangencial.

En los líquidos, el pequeño rozamiento existente entre capas adyacentes se denomina

viscosidad. Es su pequeña magnitud la que le confiere al fluido sus peculiares

Page 55: fisica unam.pdf

características; así, por ejemplo, si arrastramos la superficie de un líquido con la palma de

la mano como hacíamos con la goma de borrar, las capas inferiores no se moverán o lo

harán mucho más lentamente que la superficie ya que son arrastradas por efecto de la

pequeña resistencia tangencial, mientras que las capas superiores fluyen con facilidad.

Igualmente, si revolvemos con una cuchara un recipiente grande con agua en el que

hemos depositado pequeños trozos de corcho, observaremos que al revolver en el centro

también se mueve la periferia y al revolver en la periferia también dan vueltas los trocitos

de corcho del centro; de nuevo, las capas cilíndricas de agua se mueven por efecto de la

viscosidad, disminuyendo su velocidad a medida que nos alejamos de la cuchara..

[pic]

[pic]

Ejemplo de la viscosidad de la leche y el agua. Líquidos con altas viscosidades no forman

salpicaduras.

Cabe señalar que la viscosidad sólo se manifiesta en fluidos en movimiento, ya que

cuando el fluido está en reposo adopta una forma tal en la que no actúan las fuerzas

tangenciales que no puede resistir. Es por ello por lo que llenado un recipiente con un

líquido, la superficie del mismo permanece plana, es decir, perpendicular a la única fuerza

que actúa en ese momento, la gravedad, sin existir por tanto componente tangencial

alguna.

Si la viscosidad fuera muy grande, el rozamiento entre capas adyacentes lo sería también,

lo que significa que éstas no podrían moverse unas respecto de otras o lo harían muy

poco, es decir, estaríamos ante un sólido. Si por el contrario la viscosidad fuera cero,

estaríamos ante un superfluido que presenta propiedades notables como escapar de los

recipientes aunque no estén llenos (véase Helio-II).

La viscosidad es característica de todos los fluidos, tanto líquidos como gases, si bien, en

este último caso su efecto suele ser despreciable, están más cerca de ser fluidos ideales.

[editar] Medidas de la viscosidad

La viscosidad de un fluido puede medirse por un parámetro dependiente de la

temperatura llamado coeficiente de viscosidad o simplemente viscosidad:

Page 56: fisica unam.pdf

• Coeficiente de viscosidad dinámico, designado como η o μ. En unidades en el SI: [µ] =

[Pa·s] = [kg·m-1·s-1] ; otras unidades:

1 Poise = 1 [P] = 10-1 [Pa·s] = [10-1 kg·s-1·m-1]

Ver unidades de viscosidad para tener una idea más exacta del Poise [P].

• Coeficiente de viscosidad cinemático, designado como ν, y que resulta ser igual al

cociente del coeficiente de viscosidad dinámica entre la densidad ν = μ/ρ. (En unidades en

el SI: [ν] = [m2.s-1]. En el sistema cegesimal es el Stoke(St).

|Gas (a 0 °C):[pic] |Viscosidad dinámica |

| |[μPa·s] |

| |[pic] |

|Hidrógeno |8,4 |

|Aire |17,4 |

|Xenón |21,2 |

|Agua (20ºC) |1002 |

8. Óptica

8.1 Reflexión y refracción de la luz

LA HIPÓTESIS de los rayos rectos luminosos no es la única hipótesis de la óptica

geométrica. Para explicar el fenómeno de la reflexión de la luz (Figura 4) es necesario

suponer que la dirección de los rayos luminosos cambia en algunas circunstancias. Una

imagen en un espejo se ve como si el objeto estuviera atrás, y no frente a éste. La óptica

geométrica explica este familiar fenómeno suponiendo que los rayos luminosos cambian

de dirección al llegar al espejo. La forma precisa en que ocurre este cambio se conoce

como ley de la reflexión de la luz. Es una ley muy sencilla: los rayos incidente y reflejado

hacen ángulos iguales con el espejo; o con la perpendicular al espejo, que es como

suelen medirse estos ángulos (Figura 10). Esta ley, por cierto, también se puede deducir

aplicando la ley de variación del tamaño aparente con la distancia para explicar los

tamaños aparentes de un objeto y de su imagen en un espejo plano. O, dicho de otra

forma, si vemos nuestra imagen en un espejo plano del tamaño que la vemos es porque

los rayos incidente y reflejado forman ángulos iguales con el espejo.

Page 57: fisica unam.pdf

[pic]

Figura 10. La ley de la reflexión de la luz: el ángulo de incidencia, i, y el de reflexión, r,

de un rayo luminoso sobre una superficie son iguales; esto es i = r.

La ley de la refracción de la luz: el seno del ángulo de incidencia, sen i, y el seno del

ángulo de refracción, sen r', de un rayo luminoso que atraviesa la superficie de separación

de dos medios transparentes están en las misma proporción para cualquier valor del

ángulo i; esto es, sen i /sen r' = n. Si la luz pasa de aire al agua, sen i /sen r' = 4/3.

Un cuerpo parcialmente sumergido en agua se ve chueco; como si se doblara al entrar

al agua. Este fenómeno se llama refracción. Además del agua se observa en muchos

otros medios transparentes, como el vidrio, llamados refringentes. Era uno de los

problemas ópticos pendientes de solución todavía hacia el siglo XIII (Figura 4). Los

fenómenos de refracción se incorporan a la óptica geométrica simplemente suponiendo

que los rayos luminosos cambian de dirección no sólo al reflejarse sino también al pasar

de un medio refringente a otro; por ejemplo, del agua al aire, o del agua al vidrio, o del

vidrio al aire. Un experimento sencillo que demuestra este cambio de dirección se muestra

en la figura 11. Una moneda pequeña en el fondo de una taza vacía está apenas oculta

por el filo de la taza en la figura 11 (a). Llenando lentamente la taza con agua la moneda

aparece poco a poco, hasta observarse por completo, en la figura 11(b). Los rayos

luminosos emitidos por la moneda que llegan al ojo debido a que son refractados en la

superficie del agua se muestran en esa figura; la moneda se ve en la dirección de estos

rayos. El experimento muestra también que los rayos refractados están más cerca de la

superficie en el medio menos denso; el aire en la figura 11(b).

[pic]

Figura 11. Un experimento para demostrar la refracción de la luz. En (a) la moneda está

apenas oculta por una orilla de la taza. En (b) la moneda aparece al llenar lentamente la

taza con agua. Los rayos luminosos cambian de dirección al pasar del agua al aire.

La forma precisa en que cambia la dirección de los rayos en la refracción, esto es, la ley

de la refracción, no es tan simple como la ley de la reflexión. Tal vez por esto, aunque el

Page 58: fisica unam.pdf

fenómeno de la refracción era conocido desde la antigüedad, la ley de la refracción no fue

descubierta sino hasta el siglo XV por el astrónomo holandés Willebrord Snell, quien,

inexplicablemente, no la dio a conocer, describiéndola solamente en sus notas personales

de investigación. La ley de la refracción fue divulgada por Descartes en 1627, pero se

conoce universalmente como la ley de Snell. No relaciona los ángulos de los rayos

luminosos con la perpendicular a la superficie de refracción, sino los senos de esos

ángulos. En símbolos matemáticos se expresa así: sen (i) / sen (r') = constante = n; esto

es, el cociente de los senos de los ángulos de incidencia i y de refracción r' toma el mismo

valor para todos los valores posibles de estos ángulos. Por ejemplo, si los rayos pasan del

aire al agua la cantidad constante n, llamada índice de refracción, vale 4/ 3 y se tiene sen

(i) / sen (r') = 4/ 3.

La ley de la refracción de la luz también puede ser deducida aplicando la ley de

variación del tamaño aparente con la distancia. La figura 12 muestra un sencillo

experimento para hacer esto. Dos monedas pequeñas se ponen en dos tazas, una vacía y

la otra parcialmente llena de agua. Observándolas desde arriba y a la misma altura, la

moneda sumergida en agua se ve más grande debido a que por la refracción de la luz los

rayos que emite se abren más al pasar por la superficie del agua y llegan al ojo como si

hubieran sido emitidos por una moneda más cercana. De los tamaños aparentes de las

dos monedas se deducen los ángulos que forman los rayos con la perpendicular a la

superficie; el de los rayos refractados depende de la altura de llenado de la taza. Los

senos de estos ángulos se obtienen de una tabla de valores y dividiendo el mayor entre el

menor se encuentra que su cociente siempre es 4/ 3, el índice de refracción del agua;

independientemente de la altura de llenado de la taza.

[pic]

Figura 12. Un experimento para comprobar la ley de la refracción. La moneda

sumergida en el agua se ve más grande porque los rayos que parten de ella se abren al

salir al aire y parecen llegar de una moneda más cercana. Relacionando los tamaños

aparentes con los ángulos de los rayos se obtiene la ley de la refracción, o ley de Snell.

La hipótesis de los rayos luminosos y las leyes de la reflexión y de la refracción de la luz

son el fundamento de la óptica geométrica. Con ellas es posible predecir el curso que

tomarán los rayos luminosos que lleguen a lentes o a espejos. Por ejemplo, en la figura

13, los rayos que llegan de un punto luminoso a la lente de una lupa común son

divergentes, pero se hacen convergentes al atravesarla debido a las refracciones que

ocurren en las dos superficies del vidrio. Después de alcanzar el punto de convergencia

los rayos vuelven a ser divergentes, de manera que si los vemos desde un lugar más

Page 59: fisica unam.pdf

lejano aún, los percibimos como si se originaran en el punto de convergencia; es decir,

como si el objeto hubiera sido transportado a ese lugar. Se dice que en este punto se

forma una imagen real del objeto. Las leyes de la refracción permiten calcular el lugar

preciso donde se forma esa imagen. Mirando con otra lupa en ese lugar se observa la

imagen amplificada del objeto. Así es, esencialmente, como funciona un telescopio

(Figura 14). Este instrumento utiliza dos lentes del tipo llamado convergente, parecidas a

la de una lupa en que son más gruesas enmedio que en la orilla. La primera de ellas —

llamada objetivo— produce una imagen real de un objeto lejano, como la Luna, en un

punto atrás y cerca de la lente. La segunda lente del telescopio, llamada ocular, se usa

simplemente como una lente de aumento común para amplificar y observar esta imagen

(Figura 14).

[pic]

Figura 13. Una lupa intercepta rayos divergentes emitidos por un punto luminoso y los

reúne en otro punto. Los rayos reunidos parecen salir de este lugar. Se dice que aquí se

forma una imagen real del punto luminoso.

[pic]

Figura 14. Un telescopio sencillo se compone de una lente, llamada objetivo, que forma

cerca de ella una imagen real de un objeto lejano, y de una lente de aumento, llamada

ocular, con la que se examina esta imagen.

Resumiendo lo anterior, la óptica geométrica está compuesta por una hipótesis, la de

los rayos rectos luminosos; por dos leyes derivadas de la experiencia, la de la reflexión y

la de la refracción de la luz, y por una ciencia matemática, la geometría, con la que se

puede aplicar metódicamente a los problemas ópticos. La óptica geométrica ha sido

extraordinariamente fructífera por estar basada en leyes que se cumplen con precisión y

en una ciencia tan completa como la geometría, pero parte de su éxito es resultado de su

hipótesis principal. Es decir, aunque no se ha intentado siquiera aclarar de qué están

hechos los rayos luminosos, deben estar hechos de algo que se propaga como esos

rayos; de otra manera la teoría no habría tenido tanto éxito.

Isaac Newton suponía que los rayos luminosos están compuestos por partículas

extraordinariamente diminutas que los cuerpos luminosos arrojan a gran velocidad y que

Page 60: fisica unam.pdf

al penetrar al ojo e incidir sobre la retina estimulan la visión. Newton apoyaba estas ideas

en el fenómeno de la propagación rectilínea de la luz, pues sólo suponiéndola compuesta

por partículas independientes podía imaginar que los rayos de luz pudieran ser separados

unos de otros por medio de un popote como en la figura 1, o de una lente convergente

como en la figura 13. Otro importante argumento que Newton daba en apoyo a esta idea

era que la luz no da la vuelta a cuerpos opacos; o bien, que la sombra geométrica de un

cuerpo está limitada por líneas rectas como en la figura 7. Este argumento se esgrimía

principalmente en contra de las ideas de Descartes, quien suponía que la luz era una

"especie de presión" propagada alrededor de los cuerpos luminosos que al llegar al ojo

estimulaba la visión. Pero, argüía Newton, una zona de presión como ésta no tendría por

qué no propagarse alrededor de los cuerpos y entrar en la sombra geométrica; esto es, si

la luz fuera causada por esas "zonas de presión", también debería percibirse en la sombra

geométrica de cuerpos opacos.

Las ideas de Newton desembocaban también en importantes conclusiones al aplicarlas

a la refracción de la luz. La figura 15 intenta explicar la refracción estudiando el

movimiento de una pelota de tenis. Debido a que la velocidad de la pelota es diferente en

el agua que en el aire, la dirección de su movimiento cambia al atravesar la superficie;

esto es, se refracta. Y se puede demostrar que si la velocidad en el agua es menor que en

el aire el ángulo de refracción r' es mayor que el de incidencia i, como aparece en esa

figura. Pero en la refracción de la luz ocurre precisamente lo contrario, el ángulo de

refracción es menor que el de incidencia al pasar del aire al agua, o al pasar a cualquier

otro medio más denso como, por ejemplo, el vidrio. Es, entonces, inevitable concluir que,

si estuviera compuesta por partículas, la luz sería más rápida en los medios más densos.

En particular, debería ser más rápida en cualquier medio transparente que en el vacío. En

tiempos de Newton (1642-1727) sólo era posible medir la velocidad de la luz por medios

astronómicos y de ninguna manera en un laboratorio, como hubiera sido necesario para

medirla en agua, o en vidrio, y comparar este valor con el ya conocido para el vacío. Por

este camino, pues, no fue posible adentrarse en el conocimiento de la naturaleza de los

rayos luminosos por muchos años.

[pic]

Figura 15. La velocidad de una pelota de tenis disminuye y la dirección de su

movimiento se acerca a la superficie al entrar al agua. La luz, por el contrario, al entrar al

agua se aleja de la superficie. De esto se deduce que, si la luz estuviera formada por

partículas, éstas se moverían más rápidamente en agua que en aire.

8.2 Espejos planos y esféricos

Page 61: fisica unam.pdf

Espejos planos y esféricos

a) Espejos planos.

[pic]

¿Cómo se comporta un espejo plano en los cambios de dirección de la luz?

En la imagen un objeto P emite un rayo PO perpendi-cular al espejo y vuelve en la misma

dirección. Otro rayo PQ incide oblicuamente sobre el espejo y se refleja en él. Las

prolongaciones de los rayos salientes, OP y QR proporcionan la situación de la imagen P'

, a la misma distancia de O que P y en la recta perpendicular al espejo que pasa por P.

Luego

s'= -s

¿Cómo puede obtenerse este resultado a partir de la ecuación del dioptrio

esférico?

Se puede observar que si el índice de refracción para el espejo, n'= -n, y R=( , se

obtiene la ecuación anterior.

[pic]; [pic]

[pic]

La imagen formada está a la derecha del espejo, a la misma distancia del espejo

que el objeto y es una imagen virtual.

El tamaño de la imagen es igual al del objeto por simples consideraciones de

simetría.

AB=A'B'

b) Espejos esféricos

Pueden considerarse un caso particular de un dioptrio esférico con n'= -n

[pic];

Page 62: fisica unam.pdf

si n' = -n ; [pic][pic]

de donde

[pic] Ecuación de los espejos

Distancia focal objeto Distancia focal imagen

Si s=f ( s'=( Si s=f ( s'=(

[pic]; luego [pic] [pic]; luego [pic]

[pic]

En la imagen adjunta puede verse la formación de la imagen A'B' de un objeto AB a

través de un espejo convexo. La imagen es virtual , derecha y más pequeña.

Un rayo paralelo al eje óptico que sale del punto B del objeto, se refleja y su

prolongación pasa por el foco imagen F'.

Un rayo orientado hacia el foco objeto F, coincidente en esta caso con F', se refleja en el

espejo y sale hacia la izquierda paralelo al eje óptico.

La intersección de las prolongaciones determina la imagen, que en este caso es

virtual.

Aplicación

Un objeto de tamaño 0,5 cm está a 5,0 cm de un espejo convexo de radio 25 cm.

¿Dónde estará la imagen?.¿Cuál será su tamaño y qué tipo de imagen será?

[pic]; s= -5,0 cm ; R=+25 cm ; y= +0,5 cm ; [pic]; s'=+25/7

La imagen estará a +25/7=+3,5 cm a la derecha del espejo. La imagen será virtual y

su tamaño

[pic]

La imagen será derecha. Estas características se corresponden con la imagen

anterior.

Aplicación

Un objeto AB de tamaño 0,5 cm está a 5,0 cm de un espejo cóncavo de radio 20,0 cm

. ¿Dónde estará la imagen?.¿Cuál será su tamaño y qué tipo de imagen será?

Page 63: fisica unam.pdf

[pic]

Los datos son:

s= -5,0 cm ; R= -20,0 cm ; y= +0,5 cm ; [pic]; [pic]; s'=+10 cm

La imagen estará a 10 cm a la derecha del espejo. La imagen será virtual. El aumento

lateral es:

[pic]

La imagen será derecha, porque y' es positiva, y de tamaño el que el objeto.

Los siguientes diagramas muestran la formación de imágenes a través de espejos

cóncavos.

[pic]

[pic]

Aplicación

¿A qué distancia delante de un espejo esférico convexo de radio R=+30 cm ha de

colocarse un objeto para que la imagen sea de la mitad de tamaño que el objeto? La

ecuación de los espejos es: [pic] y el aumento lateral

AL= [pic]1/2

las ecuaciones anteriores permiten hallar s= - 15 cm

8.3 Lentes convergentes y divergentes

Lentes Convergentes y Divergentes

Una lente es un medio transparente limitado por dos superficies de las cuales al menos

una es curva. Una onda incidente sufre dos refracciones al pasar a través de la lente.

Una lente delgada es una lente cuyo grosor es pequeño comparado con los radios de

curvatura de sus superficies.

Page 64: fisica unam.pdf

Hay dos tipos de lentes: convergentes y divergentes.

Convergentes: son más gruesas en el centro que en los extremos. Se representan

esquemáticamente con una línea con dos puntas de flecha en los extremos.

[pic]

Según el valor de los radios de las caras pueden ser: biconvexas (1), plano convexas (2) y

menisco convergente (3).

Divergentes: Son más delgadas en la parte central que en los extremos. Se representan

esquemáticamente por una línea recta acabada en dos puntas de flecha invertidas.

[pic]

Según el valor de los radios de las caras (que son dioptrios) pueden ser: bicóncavas (4),

plano cóncavas (5) y menisco divergente (6).

En esta foto vemos dos lentes de las que existen en los laboratorios de óptica.

[pic]

Se define además la potencia de una lente como la inversa de su distancia focal imagen

P=1/f´ y mide la mayor o menor convergencia de los rayos emergentes, a mayor potencia

mayor convergencia de los rayos. La unidad de potencia de una lente es la dioptría, que

se define como la potencia de una lente cuya distancia focal es de un metro.

Partiendo de la ecuación fundamental del dioptrio y teniendo en cuenta que al pasar un

rayo por una lente atraviesa dos dioptrios, suponemos siempre que la lente está en el aire

(n = 1) y llamaremos n al índice de refracción del material con el que está construida la

lente.

Aplicando dos veces la ecuación del dioptrio y sumando se obtiene la ecuación

fundamental de las lentes delgadas:

1/s´ – 1/s = (n-1) ( 1/R1 – 1/R2 )

Donde R1 y R2 son los radios de curvatura del primer y segundo dioptrio.

A partir de esa ecuación se pueden obtener las expresiones para calcular la distancia

focal objeto y la distancia focal imagen.

Por ejemplo haciendo s´=f´ y s = infinito se obtiene:

1/f´ = (n-1) ( 1/R1 – 1/R2 )

En la lentes convergentes el foco imagen está a la derecha de la lente, f´ > 0.

En la lentes divergentes el foco imagen está a la izquierda de la lente, f´ < 0.

Page 65: fisica unam.pdf

Se cumple que: f = -f´

La ecuación fundamental de las lentes se puede resumir en la siguiente expresión:

1/s´ – 1/s = 1/f´

A partir de una construcción gráfica es fácil deducir que el aumento lateral se puede

calcular del siguiente modo:

ML = y´/y = s´/s

La construcción de imágenes es muy sencilla si se utilizan los rayos principales:

• - Rayo paralelo: Rayo paralelo al eje óptico que parte de la parte superior del objeto.

Después de refractarse pasa por el foco imagen.

• - Rayo focal: Rayo que parte de la parte superior del objeto y pasa por el foco objeto,

con lo cual se refracta de manera que sale paralelo . Después de refractarse pasa por el

foco imagen.

• - Rayo radial: Rayo que parte de la parte superior del objeto y está dirigido hacia el

centro de curvatura del dioptrio. Este rayo no se refracta y continúa en la misma dirección.

8.4 Punto de vista contemporáneo (dualidad)

La dualidad onda-corpúsculo, también llamada dualidad onda-partícula, resolvió una

aparente paradoja, demostrando que la luz puede poseer propiedades de partícula y

propiedades ondulatorias.

De acuerdo con la física clásica existen diferencias entre onda y partícula. Una partícula

ocupa un lugar en el espacio y tiene masa mientras que una onda se extiende en el

espacio caracterizándose por tener una velocidad definida y masa nula.

Actualmente se considera que la dualidad onda-partícula es un ―concepto de la mecánica

cuántica según el cual no hay diferencias fundamentales entre partículas y ondas: las

partículas pueden comportarse como ondas y viceversa‖. (Stephen Hawking, 2001)

Éste es un hecho comprobado experimentalmente en múltiples ocasiones. Fue

introducido por Louis-Victor de Broglie, físico francés de principios del siglo XX. En 1924

en su tesis doctoral propuso la existencia de ondas de materia, es decir que toda materia

tenía una onda asociada a ella. Esta idea revolucionaria, fundada en la analogía con que

la radiación tenía una partícula asociada, propiedad ya demostrada entonces, no despertó

gran interés, pese a lo acertado de sus planteamientos, ya que no tenía evidencias de

producirse. Sin embargo, Einstein reconoció su importancia y cinco años después, en

1929, De Broglie recibió el Nobel en Física por su trabajo.

Page 66: fisica unam.pdf

Su trabajo decía que la longitud de onda λ de la onda asociada a la materia era

[pic]

donde h es la constante de Planck y p es la cantidad de movimiento de la partícula de

materia.

8.4.1 Modelo corpuscular

Se la conoce como teoríacorpuscular o de la emisión. A finales del siglo XVI, con el uso

de lentes e instrumentos ópticos, empezaran a experimentarse los fenómenos luminosos,

siendo el holandés Willebrord Snell, en 1620, quién descubrió experimentalmente la ley

de la refracción, aunque no fue conocida hasta que, en 1638, René Descartes(1596-1650)

publicó su tratado: Óptica. Descartes fue el primer gran defensor de la teoría corpuscular,

diciendo que la luz se comportaba como un proyectil que se propulsaba a velocidad

infinita, sin especificar absolutamente nada sobre su naturaleza, pero rechazando que

cierta materia fuera de los objetos al ojo.

Explicó claramente la reflexión, pero tuvo alguna dificultad con la refracción.

Según Newton, las fuentesluminosas emiten corpúsculos muy livianos que se desplazan a

gran velocidad y en línea recta. Podemos fijar ya la idea de que esta teoría además de

concebir la propagación de la luz por medio de corpúsculos, también sienta el principio de

que los rayos se desplazan en forma rectilínea.

Como toda teoría física es válida en tanto y en cuanto pueda explicar los fenómenos

conocidos hasta el momento, en forma satisfactoria.

Newton explicó que la variación de intensidad de la fuente luminosa es proporcional a la

cantidad de corpúsculos que emite en determinado tiempo.

La reflexión de la luz consiste en la incidencia de dichos corpúsculos en forma oblicua en

una superficie espejada, de manera que al llegar a ella varía de dirección pero siempre en

el mismo medio.

Page 67: fisica unam.pdf

La igualdaddel ángulo de incidencia con el de reflexión se debe a la circunstancia de que

tanto antes como después de la reflexión los corpúsculos conservan la misma velocidad

(debido a que permanece en el mismo medio).

La refracción la resolvió expresando que los corpúsculos que inciden oblicuamente en una

superficie de separación de dos medios de distinta densidadson atraídos por la masa del

medio más denso y, por lo tanto, aumenta la componente de la velocidad que es la

velocidad que es perpendicular a la superficie de separación, razón por la cual los

corpúsculos luminosos se acercan a la normal.

El fenómeno de la birrefrigencia del espato de Islandia descubierto por el danés

Bartholinus en 1669, quiso ser justificado por Newton suponiendo que los corpúsculos del

rayo podían ser rectangulares y sus propiedades variar según su orientación respecto a la

dirección de la propagación.

Según lo expresado por Newton, la velocidad de la luz aumentaría en los medios de

mayor densidad, lo cual contradice los resultados de los experimentos realizados años

después.

Esta explicación, contradictoria con los resultados experimentales sobre la velocidad de la

luz en medios más densos que el vacío, obligó al abandono de la teoría corpuscular.

8.4.2 Modelo ondulatorio

Propugnada por Christian Huygens en el año 1678, describe y explica lo que hoy se

considera como leyes de reflexión y refracción. Define a la luz como un

movimientoondulatorio semejante al que se produce con el sonido.

Propuso el modelo ondulatorio, en el que se defendía que la luz no era mas que una

perturbación ondulatoria, parecida al sonido, y de tipo mecánico pues necesitaba un

medio material para propagarse. Supuso tres hipó tesis:

1. todos los puntos de un frente de ondaseran centros emisores de ondas secundarias;

Page 68: fisica unam.pdf

2. de todo centro emisor se propagaban ondas en todas direcciones del espacio con

velocidad distinta en cada medio;

3. como la luz se propagaba en el vacío y necesitaba un material perfecto sin rozamiento,

se supuso que todo el espacio estaba ocupado por éter, que hacía de soporte de las

ondas.

hora, como los físicos de la época consideraban que todas las ondas requerían de algún

medio que las transportaran en el vacío, para las ondas lumínicas se postula como medio

a una materia insustancial e invisible a la cual se le llamó éter.

Justamente la presencia del éter fue el principal medio cuestionador de la teoría

ondulatoria. En ello, es necesario equiparar las vibraciones luminosas con las elásticas

transversales de los sólidos sin que se transmitan, por lo tanto, vibraciones longitudinales.

Aquí es donde se presenta la mayor contradicción en cuanto a la presencia del éter como

medio de transporte de ondas, ya que se requeriría que éste reuniera alguna

característica sólida pero que a su vez no opusiera resistencia al libre transito de los

cuerpos sólidos. (Las ondas transversales sólo se propagan a través de medios sólidos.)

En aquella época, la teoría de Huygens no fue muy considerada, fundamentalmente, y tal

como ya lo mencionamos, dado al prestigio que alcanzó Newton. Pasó más de un siglo

para que fuera tomada en cuenta la Teoría Ondulatoria de la luz. Los experimentos del

médico inglés Thomas Youngsobre los fenómenos de interferencias luminosas, y los del

físico francés Auguste Jean Fresnelsobre la difracción fueron decisivos para que ello

ocurriera y se colocara en la tabla de estudios de los físicos sobre la luz, la propuesta

realizada en el siglo XVII por Huygens.

Young demostró experimentalmente el hecho paradójico que se daba en la teoría

corpuscular de que la suma de dos fuentes luminosas pueden producir menos

luminosidad que por separado. En una pantalla negra practica dos minúsculos agujeros

muy próximos entre sí: al acercar la pantalla al ojo, la luz de un pequeño y distante foco

aparece en forma de anillos alternativamente brillantes y oscuros. ¿Cómo explicar el

efecto de ambos agujeros que por separado darían un campo iluminado, y combinados

producen sombra en ciertas zonas? Young logra explicar que la alternancia de las franjas

por la imagende las ondas acuáticas. Si las ondas suman sus crestas hallándose en

concordancia de fase, la vibración resultante será intensa. Por el contrario, si la cresta de

una onda coincide con el valle de la otra, la vibración resultante será nula. Deducción

simple imputada a una interferencia y se embriona la idea de la luz como estado vibratorio

de una materia insustancial e invisible, el éter, al cual se le resucita.

Page 69: fisica unam.pdf

Ahora bien, la colaboración de Auguste Fresnel para el rescate de la teoría ondulatoria de

la luz estuvo dada por el aporte matemático que le dio rigor a las ideas propuestas por

Young y la explicación que presentó sobre el fenómeno de la polarización al transformar

el movimiento ondulatorio longitudinal, supuesto por Huygens y ratificado por Young,

quien creía que las vibraciones luminosas se efectuaban en dirección paralela a la

propagación de la onda luminosa, en transversales. Pero aquí, y pese a las sagaces

explicaciones que incluso rayan en las adivinanzas dadas por Fresnel, inmediatamente

queda presentada una gran contradicción a esta doctrina, ya que no es posible que se

pueda propagar en el éter la luz por medio de ondas transversales, debido a que éstas

sólo se propagan en medios sólidos.

En su trabajo, Fresnel explica una multiplicidad de fenómenos manifestados por la luz

polarizada. Observa que dos rayos polarizados ubicados en un mismo plano se

interfieren, pero no lo hacen si están polarizados entre sí cuando se encuentran

perpendicularmente. Este descubrimiento lo invita a pensar que en un rayo polarizado

debe ocurrir algo perpendicularmente en dirección a la propagación y establece que ese

algo no puede ser más que la propia vibración luminosa. La conclusión se impone: las

vibraciones en la luz no pueden ser longitudinales, como Young lo propusiera, sino

perpendiculares a la dirección de propagación, transversales.

Las distintas investigacionesy estudios que se realizaron sobre la naturaleza de la luz, en

la época en que nos encontramos de lo que va transcurrido del relato, engendraron

aspiraciones de mayores conocimientos sobre la luz. Entre ellas, se encuentra la de lograr

medir la velocidad de la luz con mayor exactitud que la permitida por las observaciones

astronómicas. Hippolyte Fizeau (1819- 1896) concretó el proyectoen 1849 con un clásico

experimento. Al hacer pasar la luz reflejada por dos espejos entre los intersticios de una

rueda girando rápidamente, determinó la velocidad que podría tener la luz en su

trayectoria, que estimó aproximadamente en 300.000 km./s. Después de Fizeau, lo siguió

León Foucault (1819 – 1868) al medir la velocidad de propagación de la luz a través del

agua. Ello fue de gran interés, ya que iba a servir de criterio entre la teoría corpuscular y

la ondulatoria.

La primera, como señalamos, requería que la velocidad fuese mayor en el agua que en el

aire; lo contrario exigía, pues, la segunda. En sus experimentos, Foucaultlogró comprobar,

en 1851, que la velocidad de la luz cuando transcurre por el agua es inferior a la que

desarrolla cuando transita por el aire. Con ello, la teoría ondulatoria adquiere cierta

preeminencia sobre la corpuscular, y pavimenta el camino hacia la gran síntesis realizada

por Maxwell.

Page 70: fisica unam.pdf

En 1670, por primera vez en la historia, el astrónomo danés Olaf Roemer pudo calcular la

velocidad de la luz.

Se hallaba estudiando los eclipses de uno de los satélitesde Júpiter, cuyo período había

determinado tiempo atrás. Estaba en condiciones de calcular cuales serían los próximos

eclipses. Se dispuso a observar uno de ellos, y con sorpresa vio que a pesar de que

llegaba el instante tan cuidadosamente calculado por él, el eclipse no se producía y que el

satélite demoró 996 seg. en desaparecer.

Roemer realizó sus primeros cálculos cuando la tierra se encontraba entre el Sol y Júpiter;

pero cuando observó el retraso en el eclipse era el Sol quien se encontraba entre la Tierra

y Júpiter.

Por lo tanto la luz debía recorrer una distancia suplementaria de 299.000.000 Km., que es

el diámetro de la órbita terrestre, por lo tanto:

Vel. Luz = Diam. Órbita terrestre 299.000.000 Km / Atraso observado 996 seg. = 300.200

Km/seg.

Observaciones posteriores llevaron a la conclusión que el atraso en cuestión era de 1.002

seg. , lo cual da por resultado que la velocidad de la luz sería de 298.300 Km/seg.

Si se consideraba onda, la luz debería atravesar los obstáculos, como el sonido. Como no

era así, se precisaba de alguna nueva hipótesis. Aún mas considerando que tampoco

podía explicar los fenómenos de polarización. Todos estos problemas, junto al prestigio

de Newton que defendía la teoría contraria, relegó a un segundo plano, durante algún

tiempo, el modelo ondulatorio.

En 1849, el físico francés Fizeau, logró medir la velocidad de la luz con una experiencia

hecha en la tierra.

Page 71: fisica unam.pdf

Envió un rayo de luz, por entre los dientes de una rueda dentada que giraba a gran

velocidad, de modo que se reflejara en un espejo y volviera hacia la rueda.

Esta relación de velocidad entre el camino recorrido por la luz en su ida y vuelta y las

revoluciones de la rueda dentada, fue la que tomó Fizeau de base para calcular la

velocidad de la luz.

Podemos escribir: t = 2d / v

Si la rueda tiene N dientes y N espacios, y da n vueltas por segundo y pasan en 1 seg. 2

Nn dientes y espacios

t= 1 /.2Nn

Cuando no llega mas luz al observador es evidente que estos tiempos son iguales y por lo

tanto tenemos:

2d / v = 1 / 2Nn

de donde v = 4 d Nn

Fizeau colocó el espejo a 8.633 m del observador, la rueda tenía 760 dientes y giraba a

12,6 revoluciones por segundo.

Si aplicamos la fórmula obtenida, resultará:

V = 313.274 Km./seg.

Page 72: fisica unam.pdf

León Foucault y casi simultáneamente Fizeau, hallaron en 1850 un método que permite

medir la velocidad de la luz en espacios reducidos.

La idea consiste en enviar un haz de luz sobre un espejo giratorio haciéndole atravesar

una lámina de vidriosemitransparente y semirreflectora, un espejo fijo devuelve el rayo y

atraviesa luego lámina observándose la mancha luminosa en una pantalla.

Con este método se obtuvo que:

V = 295.680 Km./seg.

Luego Foucault junto a concibió la idea de calcular la velocidad de la luz en otro medio

que no sea el aire.

Midieron la velocidad de la luz en el agua y obtuvieron un resultado experimental que

decidió la controversia a favor de la teoría ondulatoria.

En general todas las mediciones de que se tiene conocimiento obtuvieron resultados entre

298.000 Km/seg y 313.300 Km/seg sin embargo se toma como velocidad de la luz la de

300.000 Km/seg por ser un término medio entre los valores obtenidos y por ser una cifra

exacta que facilitan los cálculos.

9. Física contemporánea

9.1 Estructura atómica de la materia

[pic]

Estructura atómica de la materia:

El estudio de la estructura atómica de la materia sirve para explicar las propiedades de

los materiales.

Page 73: fisica unam.pdf

La materia está compuesta por átomos, que a efectos prácticos se considerarán

partículas esféricas de 10-10 m de tamaño.

Átomo (del latín atomus, y éste del griego άτομος, indivisible) es la unidad más

pequeña de un elemento químico que mantiene su identidad o sus propiedades y que no

es posible dividir mediante procesos químicos.

Con el desarrollo de la física nuclear en el siglo XX se comprobó que el átomo puede

subdividirse en partículas más pequeñas.

Así la estructura atómica se puede dividir en:

Corteza:

compuesta por partículas cargadas negativamente que reciben el nombre de electrones.

La cantidad de electrones que tiene un átomo y el modo en que se distribuyen en su

corteza condiciona por completo las propiedades físicas y químicas que va a poseer el

elemento.

Núcleo: compuesto por los protones, que tienen carga positiva, y los neutrones, que son

eléctricamente neutros. Ambos tienen la misma masa.

Los átomos son eléctricamente neutros, aunque pueden perder o ganar electrones,

entonces se denominan iones.

Compuestos químicos:

Lo más frecuente es encontrar los elementos combinados entre sí, en forma de moléculas

y no en estado puro, como la plata o el cobre. Estos compuestos no tienen las mismas

propiedades físicas y químicas que los elementos de los que están formados, sino

distintas.

No es lo mismo compuesto químico que mezcla.

Un compuesto químico se da en proporciones definidas y es químicamente estable, no así

la mezcla cuyas propiedades son una combinación de las de sus componentes.

9.1.1 Modelos atómicos

|Historia: modelos atómicos

|

Page 74: fisica unam.pdf

|[pic] |

| |

|Desde la Antigüedad, el ser humano se ha cuestionado de qué estaba hecha la materia.

|

|Unos 400 años antes de Cristo, el filósofo griego Demócrito consideró que la materia

estaba constituida por pequeñísimas partículas |

|que no podían ser divididas en otras más pequeñas. Por ello, llamó a estas partículas

átomos, que en griego quiere decir |

|"indivisible". Demócrito atribuyó a los átomos las cualidades de ser eternos, inmutables e

indivisibles. |

|Sin embargo las ideas de Demócrito sobre la materia no fueron aceptadas por los

filósofos de su época y hubieron de transcurrir cerca|

|de 2200 años para que la idea de los átomos fuera tomada de nuevo en consideración.

|

| |

|Año |

|Científico |

|Descubrimientos experimentales

|

|Modelo atómico

|

| |

|1808 |

|[pic] |

|John Dalton |

|Durante el s.XVIII y principios del XIX algunos científicos habían investigado distintos

aspectos de las reacciones químicas, |

|obteniendo las llamadas leyes clásicas de la Química.

|

| |

Page 75: fisica unam.pdf

|[pic] |

| |

| |

|La imagen del átomo expuesta por Dalton en su teoría atómica, para explicar estas leyes,

es la de minúsculas partículas esféricas, |

|indivisibles e inmutables,

|

| |

|iguales entre sí en cada elemento químico.

|

|[pic] |

| |

| |

| |

|1897 |

|[pic] |

|J.J. Thomson |

|Demostró que dentro de los átomos hay unas partículas diminutas, con carga eléctrica

negativa, a las que se llamó electrones. |

| |

|[pic] |

| |

| |

|De este descubrimiento dedujo que el átomo debía de ser una esfera de materia cargada

positivamente, en cuyo interior estaban |

|incrustados los electrones.

|

| |

Page 76: fisica unam.pdf

|(Modelo atómico de Thomson.)

|

|[pic] |

| |

| |

| |

|1911 |

|[pic] |

|E. Rutherford |

|Demostró que los átomos no eran macizos, como se creía, sino que están vacíos en su

mayor parte y en su centro hay un diminuto |

|núcleo. |

| |

|[pic] |

| |

| |

|Dedujo que el átomo debía estar formado por una corteza con los electrones girando

alrededor de un núcleo central cargado |

|positivamente. |

| |

|(Modelo atómico de Rutherford.)

|

|[pic] |

| |

| |

| |

|1913 |

|[pic] |

Page 77: fisica unam.pdf

|Niels Bohr |

|Espectros atómicos discontinuos originados por la radiación emitida por los átomos

excitados de los elementos en estado gaseoso. |

| |

|[pic] |

| |

| |

|Propuso un nuevo modelo atómico, según el cual los electrones giran alrededor del

núcleo en unos niveles bien definidos. |

| |

|(Modelo atómico de Bohr.)

|

|[pic] |

| |

| |

| |

|[pic] |

| |

|[pic] |

9.1.2 El experimento de Rutherford

Experimento de Rutherford

De Wikipedia, la enciclopedia libre

Saltar a navegación, búsqueda

Page 78: fisica unam.pdf

[pic]

[pic]

El experimento de Rutherford mejoró el modelo atómico de Thomson.

[pic]

[pic]

Arriba Resultados esperados: Las partículas alfa pasando a través del modelo del pudding

con pasas sin verse alteradas

[pic]

Abajo: Resultados observados: Una pequeña parte de las partículas eran desviadas,

demostrando la existencia de un minúsculo volumen de carga positiva

El experimento de Rutherford, también llamado experimento de la lámina de oro, fue

realizado por Hans Geiger y Ernest Marsden en 1909, y publicado en 1911[1] , bajo la

dirección de Ernest Rutherford en los Laboratorios de Física de la Universidad de

Manchester. Los resultados obtenidos y el posterior análisis tuvieron como consecuencia

la rectificación del modelo atómico de Thomson (modelo atómico del pudding con pasas)

y la propuesta de un modelo nuclear para el átomo.

El experimento consistió en mandar un haz de partículas alfa sobre una fina lámina de oro

y observar cómo dicha lámina afectaba a la trayectoria de dichos rayos.

Las partículas alfa se obtenían de la desintegración de una sustancia radiactiva, el

polonio. Para obtener un fino haz se colocó el polonio en una caja de plomo, el plomo

detiene todas las partículas, menos las que salen por un pequeño orificio practicado en la

caja. Perpendicular a la trayectoria del haz se interponía la lámina de metal. Y, para la

detección de trayectoria de las partículas, se empleó una pantalla con sulfuro de zinc que

produce pequeños destellos cada vez que una partícula alfa choca con él.

Page 79: fisica unam.pdf

Según el modelo de Thomson, las partículas alfa atravesarían la lámina metálica sin

desviarse demasiado de su trayectoria:

• La carga positiva y los electrones del átomo se encontraban dispersos de forma

homogénea en todo el volumen del átomo. Como las partículas alfa poseen una gran

masa (8.000 veces mayor que la del electrón) y gran velocidad (unos 20.000 km/s), la

fuerzas eléctricas serían muy débiles e insuficientes para conseguir desviar las partículas

alfa.

• Además, para atravesar la lámina del metal, estas partículas se encontrarían con

muchos átomos, que irían compensando las desviaciones hacia diferentes direcciones.

Pero se observó que un pequeño porcentaje de partículas se desviaban hacia la fuente de

polonio, aproximadamente una de cada 8.000 partícula al utilizar una finísima lámina de

oro con unos 200 átomos de espesor. En palabras de Rutherford ese resultado era "tan

sorprendente como si le disparases balas de cañón a una hoja de papel y rebotasen hacia

ti".

Rutherford concluyó que el hecho de que la mayoría de las partículas atravesaran la hoja

metálica, indica que gran parte del átomo está vacío, que la desviación de las partículas

alfa indica que el deflector y las partículas poseen carga positiva, pues la desviación

siempre es dispersa. Y el rebote de las partículas alfa indica un encuentro directo con una

zona fuertemente positiva del átomo y a la vez muy densa.

El modelo atómico de Rutherford mantenía el planteamiento de Thomson, de que los

átomos poseen electrones, pero su explicación sostenía que todo átomo estaba formado

por un núcleo y una corteza. El núcleo debía tener carga positiva, un radio muy pequeño y

en él se concentraba casi toda la masa del átomo. La corteza estaría formada por una

nube de electrones que orbitan alrededor del núcleo.

Según Rutherford, las órbitas de los electrones no estaban muy bien definidas y formaban

una estructura compleja alrededor del núcleo, dándole un tamaño y forma indefinida.

También calculó que el radio del átomo, según los resultados del experimento, era diez

mil veces mayor que el núcleo mismo, lo que implicaba un gran espacio vacío en el

átomo.

9.1.3 Espectroscopía y el modelo atómico de Bohr

E l físico danés Niels Bohr ( Premio Nobel de Física 1922), postuló que los electrones

giran a grandes velocidades alrededor del núcleo atómico. En ese caso, los electrones se

disponen en diversas órbitas circulares, las cuales determinan diferentes niveles de

energía.

Page 80: fisica unam.pdf

Para Bohr, la razón por la cual los electrones que circulan en los átomos no satisfacen

las leyes de la electrodinámica clásica, es porque obedecen a las leyes de la mecánica

cuántica. Sin duda, giran en torno del núcleo atómico, pero circulan únicamente sobre

órbitas tales que sus impulsos resultan determinados por múltiplos enteros de la

constante de Planck. Los electrones no radian durante todo el tiempo en que describen

sus órbitas; solamente cuando el electrón salta de una órbita a otra, más cercana del

núcleo, lanza un cuanto de luz, un fotón. Emitidos por los átomos de gases

incandescentes, son los fotones los que engendran las rayas espectrales, y Bohr tuvo el

portentoso acierto de poder explicar las rayas del hidrógeno. En efecto, las longitudes de

onda de estas líneas espectrales se vuelven calculables a partir del modelo de átomo

cuantizado por Bohr, que interpreta también el origen de los espectros elementales

embrionados por los rayos X.

Bohr, gracias a la cuantización de su átomo, logró el gran éxito de explicar las líneas

espectrales del hidrógeno. "Le fue dado –escribió Planck– descubrir en el concepto del

cuanto la llave, por tanto tiempo buscada en vano, de la puerta de entrada del maravilloso

país de la espectroscopia, que resistiera desde los tiempos de Kirchhoff y Bunsen todas

las tentativas para abrirla‖ . La teoría original debía sufrir numerosas y profundas

modificaciones; mas, sin el genio de Bohr, sin "la llave que abrió la puerta", el progreso

ulterior, que el gran teórico dinamarqués no dejó de orientar, no hubiera sido posible.

Pero antes que Bohr lograra explicar las líneas espectrales del hidrógeno, el maestro

suizo de dibujo de una escuela de Basilea Johann Jacob Balmer, logró establecer –en

1885, el mismo año en que naciera Bohr– una simple relación numérica, que ligaba las

longitudes de onda de las rayas espectrales del átomo de hidrógeno. En este

descubrimiento –fruto de tanteos aritméticos y pitagóricos– se escondían conocimientos

que este profesor de dibujo y paciente buscador estaba lejos de sospechar. Su fórmula,

generalizada por su compatriota Walter Ritz (1908), permitió prever, no sólo la sucesión

de las líneas en el espectro visible, sino también series de ellas en el espectro invisible –

ultravioleta e infrarrojo– del hidrógeno.

Lo que hemos descrito en el párrafo anterior, implicó que en el espectro del más

sencillo de los átomos, el caos había dado paso a un orden físico regido por la ley de

Balmer-Ritz:

[pic]

Page 81: fisica unam.pdf

donde ν es la frecuencia de la línea, m y n son pequeños números enteros, y R es un

número fundamental, la célebre constante del sueco Johann Robert Rydberg, que había

seguido en espectros más complejos que el del hidrógeno la misteriosa recurrencia del

multiplicador R, calculando con gran precisión su valor. Empero, ¿cuál era el sentido de

estos hallazgos empíricos? Todos los esfuerzos considerables y perseverantes para

deducir las reglas de Balmer, de Ryddberg, y de Ritz, con la ayuda de analogías

mecánicas, acústicas y eléctricas, fracasaron completamente. "Creo –escribió Poincaré,

con profética visión– que aquí reside uno de los más importantes secretos de la

naturaleza‖ . Fue este secreto el que Bohr empezó a estudiar.

|ESPECTRO ATÓMICO

|

|[pic] |

|Los átomos de gases calientes emiten y absorben luz a ciertas longitudes de onda.

|

|En el gráfico de la izquierda, se demuestran tres espectros de emisión y uno de

absorción. |

| |

| |

|LÍNEAS ESPECTRALES DEL ÁTOMO DE HIDRÓGENO

|

|[pic] |

|En 1885 Johann Balmer descubrió una ecuación que describe la emisión y absorción del

espectro del átomo de hidrógeno: |

|1 / λ = 1.097 x 107 (1 / 4 - 1 / n2)

|

|donde n = 3, 4, 5, 6, ...

|

|Balmer encontró la ecuación dada la casualidad de un error, ya que no tenía ninguna

comprensión de la física subyacente. |

| |

|FORMULA DE BALMER

|

|[pic] |

Page 82: fisica unam.pdf

|1 / λ = 1.097 x 107 (1 / 4 - 1 / n2)

|

| por n = 3, 4, 5, 6, .....

|

|-------------------------------------------

|

|donde n = 3:

|

| |

| |

|1 / λ = 1.097 x 107 (1 / 4 - 1 / 9)

|

| |

| = 1.524 x 106 m-1

|

| |

| λ = 6.56 x 10-7 m

|

| = 656 x 10-9 m

|

| = 656 nm

|

| |

|[pic] |

|La incapacidad de las leyes clásicas –mecánicas o electromagnéticas– para interpretar

los espectros emitidos por los átomos incandescentes, |

|¿no era acaso un índice de la invalidez de esas leyes en el interior del átomo? Plantear la

cuestión era afirmar el hecho. El modelo de |

|Rutherford había asimilado el átomo a un sistema planetario; Bohr tuvo el coraje de

introducir el cuanto elemental de Planck, la constante |

|h, y adoptar postulados cuya justificación sería su extraordinario éxito. Cualquier órbita

planetaria es concebible en torno del Sol, pero |

Page 83: fisica unam.pdf

|los electrones planetarios en tomo del núcleo –demandó Bohr– solamente pueden

recorrer determinadas órbitas, cuyos radios son entre ellos |

|como los cuadrados de los números enteros. Sólo están permitidas las órbitas que

satisfacen como condición que el momento de la cantidad de |

|movimiento del electrón con respecto al núcleo, m v r, multiplicado por 2π, sea igual a un

número entero de cuanto h, 2h, 3h, y así |

|sucesivamente. Las demás trayectorias quedarán vedadas al electrón, que solamente

puede elegir las prescritas por la condición cuántica de |

|Bohr.

|

|[pic] |

|Bohr para desarrollar su modelo atómico utilizó el átomo de hidrógeno. Describió el

átomo de hidrógeno con un protón en el núcleo, y girando|

|a su alrededor un electrón.

|

|En éste modelo los electrones giran en órbitas circulares alrededor del núcleo; ocupando

la órbita de menor energía posible, o sea la órbita|

|más cercana posible al núcleo.

|

| |

| |

|Cada órbita se corresponde con un nivel energético que recibe el nombre de «número

cuántico principal», se representa con la letra "n"; y |

|toma valores desde 1 hasta 7.

|

|De acuerdo al número cuántico principal calculó las distancias a las cuales se hallaba

cada una de las órbitas permitidas en el átomo de |

|hidrógeno, respecto del núcleo.

|

| |

| |

| |

Page 84: fisica unam.pdf

|Representación de las órbitas

|

|n |

|distancia

|

| |

|[pic] |

|1 |

|0,53 Å

|

| |

| |

|2 |

|2,12 Å

|

| |

| |

|3 |

|4,76 Å

|

| |

| |

|4 |

|8,46 Å

|

| |

| |

|5 |

Page 85: fisica unam.pdf

|13,22 Å

|

| |

| |

|6 |

|19,05 Å

|

| |

| |

|7 |

|25,93 Å

|

| |

| |

| |

|Nota: Con Å se designa la unidad de longitud Angstrom (en el sistema SI) y equivale a

1.0x10-10 metros. |

|El electrón puede acceder a un nivel de energía superior pero para ello necesita

"absorber" energía. Cuando vuelve a su nivel de energía |

|original, el electrón necesita emitir la energía absorbida ( por ejemplo en forma de

radiación). |

| |

| |

|Por su parte, el electrón circula sobre esas órbitas, no radia ni pierde energía, de manera

que su estado permanece estable. Cada órbita |

|corresponde a un nivel determinado de energía, siendo el estado estable de menor

energía la trayectoria más próximo al núcleo. Si el átomo |

|recibe luz de una fuente exterior, la energía absorbida llevará al electrón a una órbita más

alejada del núcleo. En el interior atómico, |

|ganancia o pérdida de energía se traducen, pues, por saltos electrónicos que se

efectúan, en el primer caso, hacia los niveles superiores; |

Page 86: fisica unam.pdf

|en el segundo, hacia los inferiores. El sentido de la ley Balmer – Ritz se aclara

súbitamente: es la diferencia entre la energía que |

|caracteriza la órbita de partida y la de llegada, la que es irradiada por el átomo. Al dividir

por h las energías de las órbitas estables |

|del átomo de hidrógeno, se obtienen los términos espectrales, y el principio de

combinación –misterioso cuando Ritz lo formulara– se |

|encuentra interpretado. También la constante de Rydberg –medida desde hace mucho

tiempo, pero refractaria a toda deducción teórica– se |

|vuelve, a priori, calculable: la masa y carga del electrón y la constante de Planck

conducen a su valor numérico. |

|En el modelo de átomo de Bohor, cada órbita electrónica está caracterizada por un

número cuántico, siendo la más próxima al núcleo aquélla |

|con un cuanto, la órbita K, seguida por la de dos quantum , llamada L, y así

sucesivamente. Si el electrón salta de una de las órbitas |

|exteriores a la órbita L, el átomo irradia las líneas espectrales de la serie Balmer, que

cruzan la parte visible del espectro del |

|hidrógeno. Según la proveniencia del electrón saltarín, las cantidades de energía

irradiadas, y con ellas la frecuencia (color) de la línea,|

|serán diferentes: la línea roja de esta serie es el producto de un salto procedente de la

órbita M; la línea azul, de uno desde la órbita N,|

|y así sucesivamente. De manera análoga, otras series reciben también su explicación: la

de Lyman, en el ultravioleta, corresponde a saltos |

|electrónicos a la órbita K; la de Parchen , en el infrarrojo, a saltos a la órbita M. En todos

los casos, las series están determinadas por |

|la órbita de llegada; las líneas dentro de una serie, por la órbita de partida del electrón

saltarín. |

|Describamos ahora el átomo de Bohr en términos matemáticos.

|

|Considérese un electrón de carga -e en una órbita circular de un radio r0 y la presencia

de una fuerza de Coulomb F generada por un protón |

|de igual carga opuesta ( F = ma ).

|

|[01] |

Page 87: fisica unam.pdf

|[pic] |

|Usando de hecho que el momentum es p = mv, y que éste está dado en términos de la

longitud de onda de DeBroglie, entonces tenemos: |

|[02] |

|[pic] |

|ello, también permite estimar la velocidad en términos de la longitud de onda de

DeBroglie: |

|[03] |

|[pic] |

|En consecuencia, la ecuación [01] puede ser expresada con la longitud de onda de

DeBroglie omitiendo la velocidad: |

|[04] |

|[pic] |

|En este paso, Bohr da el salto cerrando la función de la onda e integrando su longitud a

un número de la circunferencia de la órbita: |

|[05] |

|[pic] |

|Combinando las ecuaciones [04] y [05] permite eliminar la longitud de onda y obtener la

solución el radio: |

|[06] |

|[pic] |

|Esto concuerda perfectamente con el resultado de la ecuación de Schröedinger, que es

la manera más correcta de solucionar el problema |

|Los hechos descritos en los párrafos precedentes fueron, en la historia de las ciencias, la

primera vez que una idea teórica acerca de la |

|estructura íntima del átomo permite dar cuantitativamente cuenta de una magnitud

medida experimentalmente. |

| |

|Este modelo, si bien se ha perfeccionado con el tiempo, ha servido de base a la moderna

física nuclear. |

Page 88: fisica unam.pdf

9.2 Física nuclear

La física nuclear es una rama de la física que estudia las propiedades y el

comportamiento de los núcleos atómicos. La física nuclear es conocida mayoritariamente

por la sociedad por el aprovechamiento de la energía nuclear en centrales nucleares y en

el desarrollo de armas nucleares, tanto de fisión como de fusión nuclear. En un contexto

más amplio, se define la física nuclear y de partículas como la rama de la física que

estudia la estructura fundamental de la materia y las interacciones entre las partículas

subatómicas.

9.2.1 El descubrimiento de la radiactividad

El fenómeno de la radiactividad fue descubierto casualmente por Henri Becquerel(a la

izquierda) en 1896. Estudiaba los fenómenos de fluorescencia y fosforescencia, para lo

cual colocaba un cristal de Pechblenda, mineral que contiene uranio, encima de una placa

fotográfica envuelta en papel negro y las exponía al sol. Cuando desenvolvía la placa la

encontraba velada, hecho que atribuía a la fosforecencia del cristal. Los días siguientes

no hubo sol y dejó en un cajón la placa envuelta con papel negro y con la sal de Uranio

encima. Cuando sacó la placa fotográfica estaba velada, y no podía deberse a la

fosforescencia ya que no había sido expuesta al sol. La única explicación era que la sal

de uranio emitía una radiación muy penetrante. Sin saberlo Becquerel había descubierto

lo que Marie Curie llamaría más tarde radiactividad.

Curie junto a su esposo Pierre Curie, empezaron a estudiar el raro fenómeno que había

descubierto Becquerel. Estudiaron diversos minerales y se dieron cuenta de que otra

sustancia el torio, era "radiactiva", término de su invención. Demostraron que la

radiactividad no era resultado de una reacción química, sino una propiedad elemental del

átomo. El fenómeno de la radiactividad era característico de los núcleos de los átomos.

En 1898 descubren dos nuevas sutancias radiactivas: el radio y el polonio, mucho más

activas que el uranio. Pierre estudiaba las propiedades de la radiación, y Marie intentaba

obtener de los minerales las sustancias radiactivas con el mayor grado de pureza posible.

Pierre probó el radio sobre su piel, y el resultado fue una quemadura y una herida, pronto

el radio serviría para tratar tumores malignos. Era el comienzo de las aplicaciones

médicas que Mme. Curie daría a la radiactividad. En 1903 recibieron el premio Nobel de

física junto con Becquerel por el descubrimiento de la radiactividad natural.

Page 89: fisica unam.pdf

Al poco tiempo murió Pierre Curie en un accidente debilitado como estaba por el radio.

Mme. Curie siguió trabajando y fue la primera mujer que ocupó un puesto en la

Universidad de la Sorbona en Paris. Siguió investigando junto a Ernest Rutherford, quien

encontró que la radiación que emitían las sustancias radiactivas, tenía tres componentes

que denominó:alfa, beta y gamma.

Mme. Curie siguió estudiando el fenómeno de la radiactividad durante toda su vida,

prestando especial atención a las aplicaciones médicas de la radiactividad junto con los

rayos X, recien descubiertos. Agotada, casi ciega, los dedos quemados y marcados por

su querido radio, Mme Curie murió a los 60 años de leucemia en 1934. Su hija Irene

continuó su trabajo con la misma pasión junto a su marido, con el que descubrió la

radiactividad artificial y por lo que recibieron el premio Nobel.

9.2.2 Decaimiento radiactivo

En la naturaleza, casi todos los núcleos atómicos son inestables. De las más de dos mil

variedades que se conocen, el 90 por ciento decae o se desintegra, y en ese proceso

emiten algún tipo de radiación, que conforme ha avanzado el conocimiento se le ha

clasificado, por ejemplo, en radiación alfa, beta o gamma, explican los especialistas del

Departamento de Física Experimental del IF-UNAM.

El decaimiento radiactivo es la manera en que un núcleo emite radiación de cualquier tipo,

principalmente en forma de partículas, y se transforma en otro diferente. Esta radiación es

la que los físicos registran y analizan, y gracias a su estudio se conocen detalles finos de

los núcleos atómicos y se avanza en el conocimiento acerca de la estructura atómica y

nuclear.

Desde el descubrimiento de la radiactividad alcanzada hace poco más de un siglo por

Bequerel y los esposos Pierre y Marie Curie, se conoce la desintegración del núcleo de

ciertos elementos con emisión de radiación, que forman otro elemento. Sin embargo, el

reto para los científicos universitarios era conocer y experimentar con un nuevo tipo de

decaimiento radioactivo, que aporte nuevo conocimiento básico sobre el tema.

En la actualidad son múltiples las aplicaciones que tienen las ciencias nucleares: se

irradian alimentos y medicinas, se esterilizan lo mismo materiales de laboratorio que obras

de arte, y se realizan diversos estudios médicos utilizando materiales radiactivos. Sin

Page 90: fisica unam.pdf

embargo, persisten dudas fundamentales sobre cómo son los núcleos atómicos. Así,

mediante el desarrollo de un método llamado "de blanco grueso", María Esther Ortíz

Salazar y Efraín Chávez Lomelí han despejado una parte del camino dirigido a generar

nuevo conocimiento básico en ese terreno de la física experimental.

Propiedades fundamentales

El decaimiento radiactivo de un núcleo atómico es un proceso por el cual se emite una

partícula.

Hipótesis 1: Al producirse en los núcleos atómicos y dadas el corto alcance de las fuerzas

nucleares, diferentes núcleos no se interfieren entre sí y los sucesos de decaimiento

radiactivo pueden considerarse independientes entre sí.

Hipótesis 2: Otra hipótesis razonable es que la probabilidad de desintegración en un

intervalo diferencial dt es proporcional a la longitud del intervalo.

Hipótesis 3: Y si a las dos hipótesis anteriores se le añade la de una probabilidad

despreciable para la ocurrencia de más de una desintegración en el intervalo diferencial

dt, tendremos que se cumplen las tres hipótesis de un proceso de Poisson y por lo tanto

se puede suponer una distribución de probabilidad de Poisson para el decaimiento

radiactivo.

Al evaluar el comportamiento promedio para un gran número de puntos se puede

aprovechar hipótesis 2 y expresar el número de núcleos promedio que se desintegran por

unidad de tiempo como:

dN/ N = -λ(lamda)dt

donde λ (lamda)es el valor medio del número de desintegraciones por unidad de tiempo y

el signo negativo expresa que el número de núcleos padre disminuye con el tiempo.

La solución para la ecuación diferencial anterior es:

N = N(0)e − λt

9.2.3 Detectores de radiatividad

Page 91: fisica unam.pdf

Puesto que la radiación ionizante en general no es perceptible por los sentidos, es

necesario valerse de instrumentos apropiados para detectar su presencia. Asimismo,

interesan su intensidad, su energía, o cualquier otra propiedad que ayude a evaluar sus

efectos. Se han desarrollado muchos tipos de detectores de radiación, algunos de los

cuales se van a describir aquí. Cada clase de detector es sensible a cierto tipo de

radiación y a cierto intervalo de energía. Así pues, es de primordial importancia

seleccionar el detector adecuado a la radiación que se desea medir. El no hacerlo puede

conducir a errores graves.

El diseño de los detectores está basado en el conocimiento de la interacción de las

radiaciones con la materia. Como ya sabemos, las radiaciones depositan energía en los

materiales, principalmente a través de la ionización y excitación de sus átomos. Además,

puede haber emisión de luz, cambio de temperatura, o efectos químicos, todo lo cual

puede ser un indicador de la presencia de radiación. Se van a describir los detectores

más comunes en las aplicaciones de la radiación, como son los de ionización de gas y los

de centelleo.

La mayoría de los detectores de radiación presentan un comportamiento similar:

1.La radiación entra en el detector e interacciona con los átomos de éste.

2.Fruto de esta interacción, la radiación cede toda o parte de su energía a los electrones

ligados de estos átomos.

3.Se libera un gran número de electrones de relativamente baja energía que son

recogidos y analizados mediante un circuito electrónico.

El tipo de material del detector depende de la clase de radiación a estudiar y de la

información que se busca obtener:

- Para detectar partículas alfa de desintegraciones radiactivas o partículas cargadas de

reacciones nucleares a baja (MeV) energía, basta con detectores muy finos, dado que el

recorrido máximo de estas partículas en la mayoría de los sólidos es típicamente inferior a

Page 92: fisica unam.pdf

las 100 micras. En el caso de los electrones , como los emitidos en las desintegraciones

beta, se necesita un grosor para el detector de 0.1 a 1 mm. Sin embargo, para detectar

rayos gamma puede que un grosor de 5 cm resulte aún insuficiente para convertir estos

fotones tan energéticos (MeV o superior) en un pulso electrón.

- Para medir la energía de la radiación, debemos escoger un detector en el cual la

amplitud del pulso de salida sea proporcional a la energía de la radiación. Se debe elegir

un material en el que el número de electrones sea grande para evitar que posibles

fluctuaciones estadísticas afecten al valor de la energía.

- Para medir el tiempo en el que la radiación fue emitida, debemos seleccionar un material

en el que los electrones sean recogidos rápidamente en un pulso, siendo el numero de

éstos aquí menos importante.

- Para determinar el tipo de partícula (por ejemplo, en una reacción nuclear, en la que se

pueden generar una gran variedad de partículas), debemos elegir un material en el que la

masa o carga de la partícula de un efecto distintivo.

- Para medir el spin o la polarización de la radiación , debemos escoger un detector que

pueda separar distintos estados de polarización o spin.

- Si esperamos un ritmo de cuentas extremadamente alto, deberemos seleccionar un

detector que pueda recuperarse rápidamente de una radiación antes de poder contar la

siguiente. Para un ritmo de cuentas muy bajo, sin embargo, es más importante buscar

reducir el efecto de las radiaciones de fondo.

- Finalmente si estamos interesados en reconstruir la trayectoria de las radiaciones

detectadas, debemos decantarnos por un detector que sea sensible a la localización en la

que la radiación penetra.

9.2.4 Fisión y fusión nucleares

Fisión nuclear

Page 93: fisica unam.pdf

La fisión es la división de un nucleu atómico pesado (Uranio, plutonio, etc.)en dos o más

fragmentos causado por el bombardeo de neutrones, con liberación de una enorme

cantidad de energía y varios neutrones.

Cuando la fisión tiene lugar en un átomo de Uranio 235se obserba su triple fenómeno;

- Aparace una cantidad de energía, elevada en 200MeV que traduce la perdida de masa.

- Los produntos de ruptura (300 o´400)son radiactivos. Su presencia expleca los efectos

de explosión de un artefacto nuclear.

- Cada nucleo fisionado emite 2 ó 3 neutrones que provocan el fenómeno de reacción en

cadena y explican la noción de la masa crítica.

Se observa el mismo fenómeno de fusión en el plotinio 239 (artificial) y en el Uranio 233

(artificial). Ambos se fabrican a partir del Torio. Los nucleos se denominan nucleos

flexibles.

Para que se produzca la fisión hace falta que el neutrón incidente reuna unas condiciones

determinadas. Para actuar sobre el Uranio 235 y 233 y el Plutonio 239, el neutron ha de

ser un neutron termicocuya energía es de la orden 1/40 eV, lo cual responde a una

velocidad de 2 Km/s. El Uranio 238es igualmente fisible pero con neitrones rápidos cuya

energía es 1MeV.

Fusión nuclear

La fusión de determinados núcleos de elementos ligeros es uno de los dos orígenes de

energía nuclear, siendo la otra, la antes citada.

Page 94: fisica unam.pdf

En la fusión intervienen los isótopos de hidrógeno (deuterio, tritio). Cuando se fusionan los

nucleos de dichos isótopos se observa la aparición de energía que procede de la perdida

de de masa, de acuerdo con la relación de Einstein E=m.c2.

La fusión de los átomos ligeros presenta dificultades especiales tanto desde el punto de

vista teórico como del tecnológico. Esto ocurre por estar los nucleos cargados

positivamente.

La fusión y la fisión nuclear

Encontrar recursos energéticos casi inagotables, baratos y no contaminantes ha sido un

afán del hombre casi desde el primer momento.

El gran salto cuantivo lo dió el descubrimiento, hacia el año 1938-1939, es decir, la

separación del nucleo de un átomos en otros elementos , liberaba gran cantidad de

energía.

Desgraciadamente esta energía, a pesar de su rendimiento, es también altamente

peligrosa- recerdese que uno de el militar en Hiroshima y Nagasaki, y el desastre de

Chernobil-. La alternativa del futuro es la fusión nuclar. Las diferencias entre la fisión y la

fusión nuclear son;

Por la fusión nuclear, un nucleo pesado como el Uranio 235, es dividido generalmente en

dos nucleosmás ligeros debido a la colisión de un neutron (recordemos que un átomo se

compone de electrones, neutrones y protones). Como el neutron no tiene carga electrica

atraviesa facilmente el nucleo del Uranio. Al dividirse este, libera más neutrones que

colisionan con otros átomos de Uranio creando la conocida reacción en cadena de gran

poder radiactivo y energético. Esta reacción se produce a un ritmo muy acelerado en las

bombas nucleares, pero es controlado para usos pacíficos.

Por contra, la fusión es la unión de dos nucleos ligeros en uno más pesado, obteniéndose

del orden de cuatro veces más energía que en la fisión.

Page 95: fisica unam.pdf

Mientras que la fisión nuclearse conoce y puede controlarse bastante bien, la fusión

plantea el siguiente gran inconveniente, que hace que continue en fase de estudio,

aunque entrando en el siglo XXI se espera resolver:

•Para que la reacción de la fusión sea posible hay que vencer la repulsión electroestática

entre dos nucleos igualmente cargados; esto es, al existir nucleos atómicos con igual

carga, y en virtud del principio de que las cargas iguales se repelen, hay que aplicar una

gran energía para conseguir la unión de las mismas.

•Esto se logra gracias al calor aplicando temperaturas de millones de grados. El problema

mencionado proviene de la dificultad de encontrar un reactor que aguante esa

temperatura.

•Con este calor se crea un nuevo estado de la materia, el plasma, en el que se dá un

absoluto desorden de iones y electrones.

Hay formas de conseguir la energía nuclear de fusión que se están experimentando

actualmente, el confinamiento magnético y el confinamiento lineal.

•Con el magnético se crea y se mantiene la reacción gracias a grandes cargas

magnéticas.

•Con el linel, el calentamiento se consigue con laser y el confinamiento del plasmacon la

propia inercia de la materia.

La investigación actual está inclinada más por el magnético, habiendose descubierto

recientemente un nuevo método para mantener la reacción, cambiando el campo

magnético de la forma cilíndrico a otra aproximadamente de forma de toro.

Podemos decir con orgullo que España se encuentra en los primeros puestos encuanto a

la investigación de la energía de fusión, disponiendo de prestigios científicos dedicados a

esta materia y con gran reconocimiento nacional.

Page 96: fisica unam.pdf

La reacción de fusión se suele conseguir por la unión por la unión del tritio y el deuterio

(isótopos de hidrógeno) para conseguir la partícula X (alfa) logrando el calor necesario. El

deuterio se encuentra en un 0,15% en el hidrógeno, y el tritio se extra del litio, muy

agundante en el agua, por lo que no hay problemas en cuanto a estas materias primas.

Comparativamente, la energia de fusión proporciona más energía que la fisión. Por

ejemplo, medio kilo de hidrógeno (muy abundante en la naturaleza, ya que forma parte del

agua)produciría unos 35 millones de kilovatios hora.Por otro lado la fusión no contamina,

o al menos no tanto como la fisiónno existiendo peligro de radioactividad. La fisión por

contra requiere de una materia prima de dificil y costosa extración.

También se a hablado de fusión en frio, para evitar los problemas que ya hemos citado

con anterioridad.Este sistema lo propuso hace pocos años un importante científico, que

supondría un gigantesco avance en este campo.

Desgraciadamente, y como la inversión en los otros dos sistemas ha sido grandísima y

costaría mucho dinero cambiar los métodos de investigación a esta nueva vía, a parte de

las presiones de los científicos que ahora investigan, que vieron peligrar sus

subvenciones, al descubridor de la fusión en frío poco menos que se les lapidó, no

volviendose a oir hablar de él ni de su sistema.Científicos más objetivos consideran que

con ello se han perdido al menos cuarenta o cincuenta años en la investigación de la

fusión.

En cuanto a la utilidad de la energía de fusión, que es la que se da en el Sol para generar

el calor que nos permite vivir, podemos destacar primeramenteque sería una fuente casi

inagotable de electricidad. Paulatinamente se deberían ir sustituyendo los reactores de

fisión por los nuevos de fisión, evitandose así los problemas de radio actividad.

En un futuro no demasiado lejano incluso podrían instalarse estos reactores, como a hora

ocurre en la fisión, en submarinos , en naves espaciales, y también en aereonaves y

vehículos terrestres. Quizás se pueda llegar a tener en camiones, trenes, autobuses,…

con motores de fusión (¿quién sabe?).

Aparte de esto, tecnicamente, llegará a ser factible, habrá que contar de nuevo con los

intereses ecomómcos y políticos ( la industria del petroleo mueve anualmente billones de

pesetas, y los estados gana muchísimo através de los impuestos). Recordemos, por

Page 97: fisica unam.pdf

ejemplo,el caso de aquel español que inventó un motor a base de agua hace algunos

años; sorprendentemente la noticia desapareció de los medios de comunicación en

cuestión de días (¿presiones económicas y políticas?).

Con todos estos acontecimientos cabe preguntarnos si de verdad podremos ver algún día

estos avances y beneficiarnos.como ciudadanos de a pie, con ellos.

Recientemente se ha logrado en el reactor español de fusión TJ-II, del CIEMAT, confinar

plasma a una temperatura similar a la del Sol. El objetivo de ese reactor no es conseguir

la fusión y generar electricidad, sino comprovar durante los proximos quince años el

comportamiento del plasma.

El TJ-II tiene un peso de sesenta toneladas y un diámetro de cinco metros, y funciona

calentando hidrógeno inyectado en su interior, gracias a una potencia electrica de un

millon de watios generados.

Hasta el momento se ha logrado en 120 ocasiones plasma, durando cada prueba

aproximadamente un segundo. El éxito de este experimento es un paso más en la

consecución de la esperada energía de fusión.

9.2.5 Aplicaciones de la radiactividad y la energía nuclear

La energía nuclear es la energía que se libera espontánea o artificialmente en las

reacciones nucleares. Sin embargo, este término engloba otro significado, el

aprovechamiento de dicha energía para otros fines como, por ejemplo, la obtención de

energía eléctrica, térmica y mecánica a partir de reacciones nucleares, y su aplicación,

bien sea con fines pacíficos o bélicos. Así, es común referirse a la energía nuclear no solo

como el resultado de una reacción sino como un concepto más amplio que incluye los

conocimientos y técnicas que permiten la utilización de esta energía por parte del ser

humano.

Estas reacciones se dan en los núcleos de algunos isótopos de ciertos elementos

químicos, siendo la más conocida la fisión del uranio-235 (235U), con la que funcionan los

reactores nucleares, y la más habitual en la naturaleza, en el interior de las estrellas, la

fusión del par deuterio-tritio (2H-3H). Sin embargo, para producir este tipo de energía

aprovechando reacciones nucleares pueden ser utilizados muchos otros isótopos de

Page 98: fisica unam.pdf

varios elementos químicos, como el torio-232, el plutonio-239, el estroncio-90 o el polonio-

210 (232Th, 239Pu, 90Sr, 210Po; respectivamente).

Existen varias disciplinas y técnicas que usan de base la energía nuclear y van desde la

generación de electricidad en las centrales nucleares hasta las técnicas de análisis de

datación arqueológica (arqueometría nuclear), la medicina nuclear usada en los

hospitales, etc.

Los dos sistemas más investigados y trabajados para la obtención de energía

aprovechable a partir de la energía nuclear de forma masiva son la fisión nuclear y la

fusión nuclear. La energía nuclear puede transformarse de forma descontrolada, dando

lugar al armamento nuclear; o controlada en reactores nucleares en los que se produce

energía eléctrica, energía mecánica o energía térmica. Tanto los materiales usados como

el diseño de las instalaciones son completamente diferentes en cada caso.

Otra técnica, empleada principalmente en pilas de mucha duración para sistemas que

requieren poco consumo eléctrico, es la utilización de generadores termoeléctricos de

radioisótopos (GTR, o RTG en inglés), en los que se aprovechan los distintos modos de

desintegración para generar electricidad en sistemas de termopares a partir del calor

transferido por una fuente radiactiva.

La energía desprendida en esos procesos nucleares suele aparecer en forma de

partículas subatómicas en movimiento. Esas partículas, al frenarse en la materia que las

rodea, producen energía térmica. Esta energía térmica se transforma en energía

mecánica utilizando motores de combustión externa, como las turbinas de vapor. Dicha

energía mecánica puede ser empleada en el transporte, como por ejemplo en los buques

nucleares; o para la generación de energía eléctrica en centrales nucleares.

La principal característica de este tipo de energía es la alta calidad de la energía que

puede producirse por unidad de masa de material utilizado en comparación con cualquier

otro tipo de energía conocida por el ser humano, pero sorprende la poca eficiencia del

proceso, ya que se desaprovecha entre un 86 y 92% de la energía que se libera.

9.3 Otras formas de energía

fuentesde energía ?

• Energía nuclear

Page 99: fisica unam.pdf

Energía liberada durante la fisión o fusión de núcleos atómicos. Las cantidades de

energía que pueden obtenerse mediante procesosnucleares superan con mucho a las que

pueden lograrse mediante procesos químicos, que sólo implican las regiones externas del

átomo.

La energía de cualquier sistema, ya sea físico, químico o nuclear, se manifiesta por su

capacidad de realizar trabajoo liberar calor o radiación. La energía total de un sistema

siempre se conserva, pero puede transferirse a otro sistema o convertirse de una forma a

otra.

• Energía cinética

Energía que un objeto posee debido a su movimiento. La energía cinética depende de la

masa y la velocidad del objeto según la ecuación

E = 1mv2

donde m es la masa del objeto y v2 la velocidad del mismo elevada al cuadrado. El valor

de E también puede derivarse de la ecuación

E = (ma)d

donde a es la aceleración de la masa m y des la distancia a lo largo de la cual se acelera.

Las relaciones entre la energía cinética y la energía potencial, y entre los conceptos de

fuerza, distancia, aceleración y energía, pueden ilustrarse elevando un objeto y dejándolo

caer.

Cuando el objeto se levanta desde una superficie se le aplica una fuerza vertical. Al actuar

esa fuerza a lo largo de una distancia, se transfiere energía al objeto. La energía asociada

a un objeto situado a determinada altura sobre una superficie se denomina energía

potencial. Si se deja caer el objeto, la energía potencial se convierte en energía cinética.

Véase Mecánica.

Page 100: fisica unam.pdf

• Energía potencial

Energía almacenada que posee un sistema como resultado de las posiciones relativas de

sus componentes. Por ejemplo, si se mantiene una pelota a una cierta distancia del suelo,

el sistema formado por la pelota y la Tierratiene una determinada energía potencial; si se

eleva más la pelota, la energía potencial del sistema aumenta. Otros ejemplos de

sistemascon energía potencial son una cinta elástica estirada o dos imanes que se

mantienen apretados de forma que se toquen los polos iguales.

Para proporcionar energía potencial a un sistema es necesario realizar un trabajo. Se

requiere esfuerzo para levantar una pelota del suelo, estirar una cinta elástica o juntar dos

imanes por sus polos iguales. De hecho, la cantidad de energía potencial que posee un

sistema es igual al trabajo realizado sobre el sistema para situarlo en cierta configuración.

La energía potencial también puede transformarse en otras formas de energía. Por

ejemplo, cuando se suelta una pelota situada a una cierta altura, la energía potencial se

transforma en energía cinética.

Fuentes Renovables

• Energía Hidráulica

Ya desde la antigüedad, se reconoció que el agua que fluye desde un nivel superior a otro

inferior posee una determinada energía cinética susceptible de ser convertida en trabajo,

como demuestran los miles de molinos que a lo largo de la historia fueron construyéndose

a orillas de los ríos.

[pic]

Más recientemente, hace más de un siglo, se aprovecha la energía hidráulica para

generar electricidad, y de hecho fue una de las primeras formas que se emplearon para

producirla.

El aprovechamiento de la energía potencial del aguapara producir energía eléctrica

utilizable, constituye en esencia la energía hidroeléctrica. Es por tanto, un recurso

Page 101: fisica unam.pdf

renovable y autóctono. El conjunto de instalaciones e infraestructura para aprovechar este

potencial se denomina central hidroeléctrica.

Hoy en día, con los problemasmedioambientales, se ven las cosas desde otra

perspectiva. Esto ha hecho que se vayan recuperando infraestructuras abandonadas

dotándolas de nuevos equipos automatizados y turbinas de alto rendimiento. En

consecuencia, el impacto ambientalno es más del que ya existía o por lo menos inferior al

de una gran central. A estas instalaciones, con potencia inferior a 5.000KW se les

denomina minihidráulicas.

Las minicentrales hidroeléctricas están condicionadas por las características del lugar de

emplazamiento. La topografía del terreno influye en la obra civil y en la selección del tipo

de máquina.

• Centrales de aguas fluyentes

Aquellas instalaciones que mediante una obra de toma, captan una parte del caudal del

río y lo conducen hacia la central para su aprovechamiento, para después devolverlo al

cauce del río.

• Centrales de pie de presa

Son los aprovechamientos hidroeléctricos que tienen la opción de almacenar las

aportaciones de un río mediante un embalse. En estas centrales se regulan los caudales

de salida para utilizarlos cuando se precisen

• Centrales de canal de riego o abastecimiento

[pic]

Se pueden distinguir dos tipos:

• Con desnivel existente en el propio canal

Se aprovecha mediante la instalación de una tubería forzada, que conduce el agua a la

central, devolviéndola posteriormente al curso normal del canal.

• Con desnivel existente entre el canal y el curso de un río cercano

Page 102: fisica unam.pdf

En este caso la central se instala cercana al río y se aprovechan las aguas excedentes en

el canal.

A la hora de realizar un proyectode una minicentral hidroeléctrica y dependiendo del tipo

por su emplazamiento, la determinación del caudal y la altura de salto determinará la

potencia a instalar, así como, el tipo de miniturbina.

Existen varios tipos de miniturbinas:

De reacción, que aprovecha la energía de presión del agua en energía cinética en el

estator, tanto en la entrada como en la salida, estas aprovechan la altura disponible hasta

el nivel de desagüe.

Kaplan: se componen básicamente de una cámara de entrada que puede ser abierta o

cerrada, un distribuidor fijo, un rodete con cuatro o cinco palas fijas en forma de hélice de

barco y un tubo de aspiración.

[pic]

Francis: caracterizada por que recibe el flujo de agua en dirección radial, orientándolo

hacia la salida en dirección axial.

[pic]

Se compone de:

Un distribuidor que contiene una serie de álabes fijos o móviles que orientan el agua hacia

el rodete. Un rodete formado por una corona de paletas fijas, torsionadas de forma que

reciben el agua en dirección radial y lo orientan axialmente. Una cámara de entrada, que

puede ser abierta o cerrada de forma espiral, para dar una componente radial al flujo de

agua. Un tubo de aspiración o de salida de agua, que puede ser recto o acodado y se

Page 103: fisica unam.pdf

encarga de mantener la diferencia de presiones necesaria para el buen funcionamiento de

la turbina.

De flujo cruzado: también conocida como de doble impulsión, constituida principalmente

por un inyector de sección rectangular provisto de un álabe longitudinal que regula y

orienta el caudal que entra en la turbina, y un rodete de forma cilíndrica, con múltiples

palas dispuestas como generatrices y soldadas por los extremos a discos terminales.

El caudal que entra en la turbina es orientado por el álabe del inyector, hacia las palas del

rodete, produciendo un primer impulso. Posteriormente, atraviesa el interior del rodete y

proporciona un segundo impulso, al salir del mismo y caer por el tubo de aspiración.

De acción, que aprovecha la energía de presión del agua para convertirla en energía

cinética en el estator, estas aprovechan la altura disponible hasta el eje de la turbina.

Pelton: Consta de un disco circular que tiene montados en su periferia unas paletas en

forma de doble cuchara y de un inyector que dirige y regula el chorro de agua que inciden

sobre las cucharas, provocando el movimiento de giro de la turbina.

[pic]

• Energía Solar

Energía radiante producida en el Sol como resultado de reacciones nucleares de fusión .

Llega a la Tierraa través del espacio en cuantos de energía llamados fotones, que

interactúan con la atmósfera y la superficie terrestres. La intensidad de la radiación solar

en el borde exterior de la atmósfera, si se considera que la Tierra está a su distancia

promedio del Sol, se llama constante solar, y su valor medio es 1,37 × 106 erg/s/cm2, o

unas 2 cal/min/cm2. Sin embargo, esta cantidad no es constante, ya que parece ser que

varía un 0,2% en un periodo de 30 años. La intensidad de energía real disponible en la

superficie terrestre es menor que la constante solar debido a la absorción y a la dispersión

de la radiación que origina la interacción de los fotones con la atmósfera.

Page 104: fisica unam.pdf

La intensidad de energía solar disponible en un punto determinado de la Tierra depende,

de forma complicada pero predecible, del día del año, de la hora y de la latitud. Además,

la cantidad de energía solar que puede recogerse depende de la orientación del

dispositivo receptor.

[pic]

• Energía Solar Térmica

Un sistema de aprovechamiento de la energía solar muy extendido es el térmico. El medio

para conseguir este aporte de temperatura se hace por medio de colectores.

El colector es una superficie, que expuesta a la radiación solar, permite absorber su calor

y transmitirlo a un fluido. Existen tres técnicas diferentes entre sí en función de la

temperatura que puede alcanzar la superficie captadora. De esta manera, los podemos

clasificar como:

Baja temperatura, captación directa, la temperatura del fluido es por debajo del punto de

ebullición .

Media temperatura, captación de bajo índice de concentración, la temperatura del fluido

es más elevada de 100ºC .

Alta temperatura, captación de alto índice de concentración, la temperatura del fluido es

más elevada de 300ºC .

• Energía Solar Fotovoltática

El sistema de aprovechamiento de la energía del Sol para producir energía eléctrica se

denomina conversión fotovoltaica.

Page 105: fisica unam.pdf

Las células solares están fabricadas de unos materialescon unas propiedades

específicas, denominados semiconductores.

Para entender el funcionamiento de una célula solar, debemos de entender las

propiedades de estos semiconductores.

Propiedades de los semiconductores.

Los electrones que se encuentran orbitando al rededor del núcleo atómico no pueden

tener cualquier energía, solamente unos valores determinados, que son denominados,

niveles energéticos, a los que se pone nombre: 1s, 2s, 2p, 3s, 3p.

Las propiedades químicas de los elementos están determinadas por el número de

electrones en su última capa y por electrones que faltan para completarla. En el silicio,

material que se usa para la construcción de una célula solar, en su última capa, posee

cuatro electrones y faltan otros cuatro para completarla.

Cuando los átomos de silicio se unen a otros, comparten los electrones de las últimas

capas con la de los átomos vecinos, formando lo que se denomina enlace covalente.

Estas agrupaciones dan lugar a un sólido de estructura cristalina.

De la forma, que los electrones de un átomo no pueden tener cualquier energía, los

electrones de un cristal tampoco pueden tomar cualquier energía.

Teniendo en cuenta que en el átomo sus propiedades se determinan en la última capa,

ahora son agrupaciones de capas, llamadas bandas de energía, y que definen las

propiedades electrónicas de un cristal.

Las dos últimas capas ocupadas por electrones reciben el nombre de banda de

conducción y banda de valencia. Estas están separadas por una energía denominada

gap.

Page 106: fisica unam.pdf

Para poderentender esto describiremos los tipos de materiales existentes, eléctricamente

hablando:

• Conductores, disponen de unos electrones de valencia poco ligados al núcleo y que

pueden moverse con facilidad dentro de la red cristalina respondiendo a un estímulo

externo.

• Semiconductores, sus electrones de valencia están más ligados a sus núcleos que los

conductores, pero basta suministrar una pequeña cantidad de energía para que se

comporten igual que estos.

• Aislantes, los electrones de valencia están fuertemente ligados al núcleo y la energía a

suministrar para poder desprenderse del átomo sería excesivamente grande.

Llegando a este punto, podemos decir que a cierta temperatura, algunos electrones

tendrán energía suficiente para desligarse de los átomos, a estos electrones libres se les

denomina "electrones" y se les asocia con los niveles energéticos de la banda de

conducción.

A los enlaces que han dejado vacíos se les denomina "huecos"; para entender mejor este

racionamiento diremos que los "huecos" se comportan de la misma forma que partículas

con carga positiva.

Si pusiéramos un cristal de estas características, lo único que conseguiríamos sería

calentar el cristal, ya que los electrones se moverían dentro del propio cristal, se

generarían pares electron-hueco, que constan de un electrón que se mueve y deja un

hueco, a ese hueco irá otro electrón próximo, generando otro hueco y así sucesivamente.

Para generar una corriente eléctrica hace falta un campo magnético, que se consigue con

la unión de dos cristales semiconductores, uno de tipo "p" y otro de tipo "n".

Estos semiconductores se obtienen con un cristal semiconductor muy puro,

introduciéndoles impurezas (dopado).

Page 107: fisica unam.pdf

Una de las regiones se dopa con fósforo, que tiene cinco electrones de valencia, uno más

que el silicio, de forma que esta región dopada muestrauna afinidad por los electrones

mayor que el silicio puro. A esta región se le denomina de tipo n.

La otra región de dopa con boro, que tiene tres electrones de valencia, uno menos que el

silicio, de forma que esta región muestra una afinidad por los electrones inferior que el

silicio puro. A esta región se le denomina de tipo p.

De esta forma, teniendo un cristal semiconductor de silicio formado por una región de tipo

p y otra región de tipo n, se consigue una diferencia de potencial que hace que los

electrones tengan menos energía en la zona n que en la zona p. Por esta razón los

electrones son enviados a la zona n y los huecos a la zona p.

Cuando inciden fotones sobre este tipo de semiconductor, unión p-n, es cuando entonces

se rompen algunos enlaces, generándose de esta forma pares electrón-hueco.

Las células solares, para poder suministrar energía al exterior, van provistas de unos

dedos o mallas de metalización frontal, que consisten en partes metálicas por la que

circula al exterior la corriente eléctrica generada.

Si esta generación se produce a una distancia de la unión menor que lo que se denomina

longitud de difusión, estos pares serán separados por el fuerte campo eléctrico que existe

en la unión, moviéndose el electrón hacia la zona n y el hueco hacia la zona p. De esta

forma se da una corriente de la zona n a la zona p.

Si estos electrones consiguen ser recolectados por la malla de metalización, obtendremos

energía eléctrica

Si la longitud de difusión es muy corta, el par electrón-hueco, se recombinará, lo cuál dará

origen a calor.

Por supuesto esto siempre que la célula esté iluminada.

Page 108: fisica unam.pdf

De todas formas no todos los fotones incidentes generan electricidad, hay factores que

hacen que existan pérdidas en esta generación.

• Energía de fotones incidentes, hay veces que los fotones incidentes no disponen de la

energía necesaria para romper un enlace covalente y crear un par electrón-hueco, y otras,

el fotón tiene demasiada energía, lo cual se disipa en forma de calor.

• Recombinación, es el hecho de que los electrones liberados ocupen un hueco próximo a

ellos.

• Reflexión, parte de la radiación incidente en la célula es reflejada.

• Malla de metalización, estos contactos eléctricos en el exterior de la célula, disminuye la

superficie de captación.

• Resistencia serie, es el efecto Joule producido por el paso de electrones a través del

silicio, la malla de metalización y resistencia de los contactos de conexión eléctricas al

circuito exterior.

• Resistencia paralelo, tiene origen en las imperfecciones de la unión p-n, creando fugas

de corriente.

Estas células conexionadas entre sí, y montadas en un módulo o panel es lo que

llamamos panel solar. Cuyas características electricas vienen determinadas por el numero

y forma de conexión de las células.

Conexión serie, conexionadas de forma que el lado p sea conectado con el lado n de otra

célula, así sucesivamente, quedando cada extremo con un lado n y otro p.

Las tensiones generadas de cada célula se suman, la corriente es el valor de una célula.

Conexión paralelo, conexionados todos los lados de tipo p, por un lado, y los de tipo n por

otro.

La tensión generada es la de una célula y la corriente es la suma de todas.

Page 109: fisica unam.pdf

Conexión mixta, es la conexión en serie y en paralelo de las células.

Donde la tensión generada es la suma de las tensiones de células en serie y la corriente

es la suma de todas las células en paralelo.

Itotal = I x número de celulas en paralelo

Vtotal = V x número de células en serie

Existen varios tipos de paneles fotovoltaicos, que se diferencian bien por su tecnología de

fabricación de células o por su aplicación.

• Silicio monocristalino

• Silicio policristalino

• Silicio amorfo

• Policristalinos de lámina delgada

• Paneles para el espacio

• Sulfuro de cadmio y sulfuro de cobre

• Teluro de cadmio

• Seleniuro de cobre e indio

• Arseniuro de galio o de concentración

• Bifaciales

• Energía Geotérmica

Nuestro planeta guarda una enorme cantidad de energía en su interior. Un volcán o un

geíser es una buena muestra de ello.

Page 110: fisica unam.pdf

Son varias las teorías que tratan de explicar las elevadas temperaturas del interior de la

Tierra. Unas sostienen que se debe a las enormes presiones existentes bajo la corteza

terrestre; otras suponen que tienen origen en determinados procesos radiativos internos;

por último, hay una teoría que lo atribuye a la materia incandescente que formó nuestro

planeta.

Diversos estudios científicos realizados en distintos puntos de la superficie terrestre han

demostrado que, por término medio, la temperatura interior de la Tierra aumenta 3ºC cada

100m. de profundidad.

Este aumento de temperatura por unidad de profundidad es denominado gradiente

geotérmico.

Se supone que variará cuando alcancen grandes profundidades, ya que en el centro de la

Tierra se superarían los 20.000ºC, cuando en realidad se ha calculado que es,

aproximadamente, de 6.000ºC.

La forma más generalizada de explotarla, a excepción de fuentes y baños termales,

consiste en perforar dos pozos, uno de extracción y otro de inyección.

En el caso de que la zona esté atravesada por un acuífero se extrae el agua caliente o el

vapor, este se utiliza en redes de calefacción y se vuelve a inyectar, en el otro caso se

utiliza en turbinas de generación de electricidad.

En el caso de no disponer de un acuífero, se suele proceder a la fragmentación de las

rocascalientes y a la inyección de algún fluido.

Es difícil el aprovechamiento de esta energía térmica, ocasionado por el bajo flujo de

calor, debido a la baja conductividad de los materiales que la constituyen; pero existen

puntos en el planeta que se producen anomalías geotérmicas, dando lugar a gradientes

de temperatura de entre 100 y 200ºC por kilómetro, siendo estos puntos aptos para el

aprovechamiento de esta energía.

Page 111: fisica unam.pdf

Tipos:

• Hidrotérmicos, tienen en su interior de forma natural el fluido caloportador, generalmente

agua en estadolíquido o en vapor, dependiendo de la presión y temperatura. Suelen

encontrarse en profundidades comprendidas entre 1 y 10 km.

• Geopresurizados, son similares a los hidrotérmicos pero a una mayor profundidad,

encontrándose el fluido caloportador a una mayor presión, unos 1000 bares y entre 100 y

200ºC, con un alto grado de salinidad, generalmente acompañados de bolsas de gas y

minerales disueltos.

• [pic]

• De roca caliente, son formaciones rocosas impermeables y una temperatura entre 100 y

300ºC, próximas a bolsas magmáticas.

• Energía Eólica

La fuente de energía eólica es el viento, o mejor dicho, la energía mecánica que, en forma

de energía cinética transporta el aireen movimiento. El viento es originado por el desigual

calentamiento de la superficie de nuestro planeta, originando movimientos convectivos de

la masa atmosférica.

La Tierra recibe una gran cantidad de energía procedente del Sol. Esta energía, en

lugares favorables, puede ser del orden de 2.000 Kwh/m2 anuales. El 2 por ciento de ella

se transforma en energía eólica con un valor capaz de dar una potencia de 10E+11

Gigavatios.

En la antigüedad no se conocían estos datos, pero lo que sí es cierto, es que

intuitivamente conocían el gran potencial de esta energía.

Las formas de mayor utilización son las de producir energía eléctrica y mecánica, bien sea

para autoabastecimiento de electricidad o bombeo de agua. Siendo un aerogenerador los

que accionan un generador eléctrico y un aeromotor los que accionan dispositivos, para

realizar un trabajo mecánico.

Page 112: fisica unam.pdf

Partes de un aerogenerador:

• Cimientos, generalmente constituidos por hormigón en tierra, sobre el cual se atornilla la

torre del aerogenerador.

• Torre, fijada al suelo por los cimientos, proporciona la altura suficiente para evitar

turbulencias y superar obstáculos cercanos; la torre y los cimientos son los encargados de

transmitir las cargas al suelo.

• Chasis, es el soporte donde se encuentra el generador, sistema de frenado, sistema de

orientación, equipos auxiliares (hidráulico), caja de cambio, etc. Protege a estos equipos

del ambiente y sirve, a su vez, de aislante acústico.

• El buje, pieza metálica de fundición que conecta las palas al eje de transmisión.

• Las palas, cuya misión es la de absorber energía del viento; el rendimiento del

aerogenerador depende de la geometría de las palas, interviniendo varios factores:

o Longitud

o Perfil

o Calaje

o Anchura

Sistemas de un aerogenerador:

• Orientación, mantiene el rotor cara al viento, minimizando los cambios de dirección del

rotor con los cambios de dirección de viento; Estos cambios de dirección provocan

pérdidas de rendimiento y genera grandes esfuerzos con los cambios de velocidad.

• Regulación, controla la velocidad del rotor y el par motor en el eje del rotor, evitando

fluctuaciones producidas por la velocidad del viento.

• Transmisión, utilizados para aumentar la velocidad de giro del rotor, para poder accionar

un generador de corriente eléctrica, es un multiplicador, colocado entre el rotor y el

generador.

Page 113: fisica unam.pdf

• Generador, para la producción de corriente continua (DC) dinamo y para la producción

de corriente alterna (AC) alternador, este puede ser síncrono o asíncrono.

[pic][pic][pic][pic]

• Energía del Mar

Los mares y los océanos son inmensos colectores solares, de los cuales se puede extraer

energía de orígenes diversos.

• La radiación solar incidente sobre los océanos, en determinadas condiciones

atmosféricas, da lugar a los gradientes térmicos oceánicos (diferencia de temperaturas) a

bajas latitudes y profundidades menores de 1000 metros.

• La iteración de los vientos y las aguas son responsables del oleaje y de las corrientes

marinas.

• La influencia gravitacional de los cuerpos celestes sobre las masas oceánicas provoca

mareas.

Energía de las mareas:

La energía estimada que se disipa por las mareas es del orden de 22000 TWh. De esta

energía se considera recuperable una cantidad que ronda los 200 TWh.

El obstáculo principal para la explotación de esta fuente es el económico. Los costes de

inversión tienden a ser altos con respecto al rendimiento, debido a las bajas y variadas

cargas hidráulicas disponibles. Estas bajas cargas exigen la utilización de grandes

equipos para manejar las enormes cantidades de agua puestas en movimiento. Por ello,

esta fuente de energía es sólo aprovechable en caso de mareas altas y en lugares en los

que el cierre no suponga construcciones demasiado costosas.

La limitación para la construcción de estas centrales, no solamente se centra en el mayor

coste de la energía producida, si no, en el impacto ambiental que generan.

Page 114: fisica unam.pdf

La mayor central mareomotriz se encuentra en el estuario del Rance (Francia). En nuestro

país hay una central mareomotriz en Península de Valdés ( Chubut ) .

[pic]

Energía térmica oceánica

La explotación de las diferencias de temperatura de los océanos ha sido propuesta

multitud de veces, desde que d’Arsonval lo insinuara en el año 1881, pero el más

conocido pionero de esta técnica fue el científico francés George Claudi, que invirtió toda

su fortuna, obtenida por la invención del tubo de neón, en una central de conversión

térmica.

La conversión de energía térmica oceánica es un método de convertir en energía útil la

diferencia de temperatura entre el agua de la superficie y el agua que se encuentra a 100

m de profundidad. En las zonas tropicales esta diferencia varía entre 20 y 24 ºC. Para el

aprovechamiento es suficiente una diferencia de 20ºC.

Las ventajas de esta fuente de energía se asocian a que es un salto térmico permanente

y benigno desde el punto de vista medioambiental. Puede tener ventajas secundarias,

tales como alimentos y agua potable, debido a que el agua fría profunda es rica en

sustancias nutritivas y sin agentes patógenos.

Las posibilidades de esta técnica se han potenciado debido a la transferencia de

tecnología asociada a las explotaciones petrolíferas fuera de costa. El

desarrollotecnológico de instalación de plataformas profundas, la utilización de materiales

compuestos y nuevas técnicas de unión harán posible el diseño de una plataforma, pero

el máximo inconveniente es el económico.

Existen dos sistemas para el aprovechamiento de esta fuente de energía:

Page 115: fisica unam.pdf

El primero consiste en utilizar directamente el agua de mar en un circuito abierto,

evaporando el agua a baja presión y así mover una turbina. El departamento de energía

americano (DOE) está construyendo un prototipo de 165 kW en las islas Hawaii, con él se

pretende alcanzar la experiencia necesaria para construir plantas de 2 a 15 MW.

El segundo consiste en emplear un circuito cerrado y un fluido de baja temperatura de

ebullición (amoniaco, freón, propano)que se evaporan en contacto con el agua caliente de

la superficie. Este vapor mueve un turbogenerador, se condensa con agua fría de las

profundidades y el fluido queda dispuesto de nuevo para su evaporación.

El rendimiento de este sistema es su bajo rendimiento, sobre un 7%, esto es debido a la

baja temperatura del foco caliente y la poca diferencia de temperatura entre el foco frío y

caliente. Además es preciso realizar un coste extra de energía, empleado para el bombeo

de agua fría de las profundidades para el condensado de los fluidos.

Energía de las olas

Las olas del mar son un derivado terciario de la energía solar. El calentamiento de la

superficie terrestre genera viento, y el viento genera las olas. Únicamente el 0.01% del

flujo de la energía solar se transforma en energía de las olas. Una de las propiedades

características de las olas es su capacidad de desplazarse a grandes distancias sin

apenas pérdida de energía. Por ello, la energía generada en cualquier parte del océano

acaba en el borde continental. De este modo la energía de las olas se concentra en las

costas, que totalizan 336000 km de longitud. La densidadmedia de energía es del orden

de 8 kW/m de costa. En comparación, las densidades de la energía solar son del orden de

300 W/m2. Por tanto, la densidad de energía de las olas es, en un orden de magnitud,

mayor que la que los procesos que la generan. Las distribuciones geográficas y

temporales de los recursos energéticos de las olas están controladas por los sistemas de

viento que las generan (tormentas, alisios, monzones).

La densidad de energía disponible varía desde las más altas del mundo, entre 50-60

kW/m en Nueva Zelanda, hasta el valor medio de 8 kW/m.

[pic]Los diseños actuales de mayor potencia se hallan a 1 Mwe de media, aunque en

estado de desarrollo.

Page 116: fisica unam.pdf

La tecnología de conversión de movimiento oscilatorio de las olas en energía eléctrica se

fundamenta en que la ola incidente crea un movimiento relativo entre un absorbedor y un

punto de reacción que impulsa un fluido a través del generador.

La potencia instalada en operación en el mundo apenas llega al Mwe. La mayor parte de

las instalaciones lo son de tierra. Los costes fuera de la costa son considerablemente

mayores. En el momento actual, la potencia instalada de los diseños más modernos varía

entre 1 y 2 MW. Pero todos los diseños deben considerarse experimentales.

De los sistemas propuestos, para aprovechar la energía de las olas, se puede hacer una

clasificación, los que se fijan a la plataforma continental y los flotantes, que se instalan en

el mar.

Uno de los primeros fue el convertidor noruego Kvaerner, cuyo primer prototipo se

construyó en Bergen en 1985. Consistente en un tubo hueco de hormigón, de diez metros

de largo, dispuesto verticalmente en el hueco de un acantilado. Las olas penetran por la

parte inferior del cilindro y desplazan hacia arriba la columna de aire, lo que impulsa una

turbina instalada en el extremo superior del tubo. Esta central tiene una potencia de 500

kW y abastece a una aldea de cincuenta casas.

El pato de Salter , que consiste en un flotador alargado cuya sección tiene forma de pato.

La parte más estrecha del flotador se enfrenta a la ola con el fin de absorber su

movimiento lo mejor posible. Los flotadores giran bajo la acción de las olas alrededor de

un eje cuyo movimiento de rotación acciona una bomba de aceite que se encarga de

mover una turbina.

La dificultad que presenta este sistema es la generación de electricidad con los lentos

movimientos que se producen.

Balsa de Cockerell, que consta de un conjunto de plataformas articuladas que reciben el

impacto de las crestas de las olas. Las balsas ascienden y descienden impulsando un

fluido hasta un motor que mueve un generador por medio de un sistema hidráulico

instalado en cada articulación.

Page 117: fisica unam.pdf

Rectificador de Russell, formado por módulos que se instalan en el fondo del mar,

paralelos al avance de las olas. Cada módulo consta de dos cajas rectangulares, una

encima de la otra. El agua pasa de la superior a la inferior a través de una turbina.

Boya de Nasuda, consistente en un dispositivo flotante donde el movimiento de las olas

se aprovecha para aspirar e impulsar aire a través de una turbina de baja presión que

mueve un generador de electricidad.

[pic]

• Biomasa y R.S.U.

La más amplia definición de BIOMASA sería considerar como tal a toda la materia

orgánica de origen vegetal o animal, incluyendo los materiales procedentes de su

transformación natural o artificial. Clasificándolo de la siguiente forma:

[pic]Biomasa natural, es la que se produce en la naturaleza sin la intervención humana.

Biomasa residual, que es la que genera cualquier actividad humana, principalmente en los

procesos agrícolas, ganaderos y los del propio hombre, tal como, basuras y aguas

residuales.

[pic]

Biomasa producida, que es la cultivada con el propósito de obtener biomasa

transformable en combustible, en vez de producir alimentos, como la caña de azúcar en

Brasil, orientada a la producción de etanol para carburante.

[pic]

Page 118: fisica unam.pdf

Desde el punto de vista energético, la biomasa se puede aprovechar de dos maneras;

quemándola para producir calor o transformándola en combustible para su mejor

transporte y almacenamiento la naturaleza de la biomasa es muy variada, ya que

depende de la propia fuente, pudiendo ser animal o vegetal, pero generalmente se puede

decir que se compone de hidratos de carbono, lípidos y prótidos. Siendo la biomasa

vegetal la que se compone mayoritariamente de hidratos de carbono y la animal de lípidos

y prótidos.

La utilización con fines energéticos de la biomasa requiere de su adecuación para

utilizarla en los sistemas convencionales.

Estos procesos pueden ser:

• Físicos, son procesos que actúan físicamente sobre la biomasa y están asociados a las

fases primarias de transformación, dentro de lo que puede denominarse fase de

acondicionamiento, como, triturado, astillado, compactado e incluso secado.

• Químicos, son los procesos relacionados con la digestión química, generalmente

mediante hidrólisis pirólisis y gasificación.

• Biológicos, son los llevados a cabo por la acción directa de microorganismos o de sus

enzimas, generalmente llamado fermentación. Son procesos relacionados con la

producción de ácidos orgánicos, alcoholes, cetonas y polímeros.

• Termoquímicos, están basados en la transformación química de la biomasa, al

someterla a altas temperaturas (300ºC - 1500ºC). Cuando se calienta la biomasa se

produce un proceso de secado y evaporación de sus componentes volátiles, seguido de

reacciones de crakeo o descomposición de sus moléculas, seguidas por reacciones en la

que los productosresultantes de la primera fase reaccionan entre sí y con los

componentes de la atmósfera en la que tenga lugar la reacción, de esta forma se

consiguen los productos finales.

Según el control de las condiciones del proceso se consiguen productos finales diferentes,

lo que da lugar a los tres procesos principales de la conversión termoquímica de la

biomasa:

Page 119: fisica unam.pdf

• Combustión: Se produce en una atmósfera oxidante, de aire u oxígeno, obteniendo

cuando es completa, dióxido de carbono, agua y sales minerales (cenizas), obteniendo

calor en forma de gases calientes.

• Gasificación: Es una combustión incompleta de la biomasa a una temperatura de entre

600ºC a 1500ºC en una atmósfera pobre de oxígeno, en la que la cantidad disponible de

este compuesto está por debajo del punto estequiométrico, es decir, el mínimo necesario

para que se produzca la reacción de combustión. En este caso se obtiene principalmente

un gas combustible formado por monóxido y dióxido de carbono, hidrógeno y metano.

• Pirólisis: Es el proceso en la descomposición térmica de la biomasa en ausencia total de

oxígeno.

En procesos lentos y temperaturas de 300ºC a 500ºC el producto obtenido es carbón

vegetal, mientras que en procesos rápidos (segundos) y temperaturas entre 800ºC a

1200ºC se obtienen mezclas de compuestos orgánicos de aspectos aceitosos y de bajo

pH, denominados aceites de pirólisis.

Pudiéndose obtener combustibles:

• Sólidos, Leña, astillas, carbón vegetal

• Líquidos, biocarburantes, aceites, aldehidos, alcoholes, cetonas, ácidos orgánicos...

Gaseosos, biogas, hidrógeno .

-----------------------

103