Download - fisica unam.pdf
FÍSICA
1. Cinemática
1.1 Características de los fenómenos mecánicos
Los fenómenos mecánicos los podemos dividir para su estudio en CINEMATICA estudia
todos los movimientos sin importar las causas que lo producen
DINAMICA estudia todos los movimientos pero si le interesa las causas que los producen
ESTATICA estudia los movimientos en reposo
EL ESTUDIO DE LOS FENÓMENOS MECANICOS PERMITE IDENTIFICAR LAS
SIGUIENTES VARIABLES.
Distancia, desplazamiento, velocidad, rapidez, movimiento rectilíneo uniforme, movimiento
uniformemente acelerado, aceleración, movimiento circular, velocidad angular, velocidad
tangencial, caída libre movimiento uniformemente retardado.
Todos estos conceptos se presentan de una manera en nuestra vida cotidiana y nos
permite su aplicación.
1.2 Movimiento rectilíneo uniforme
Un movimiento es rectilíneo cuando el móvil describe una trayectoria recta, y es uniforme
cuando su velocidad es constante en el tiempo, dado que su aceleración es nula. Nos
referimos a él mediante el acrónimo MRU.
El MRU (movimiento rectilíneo uniforme) se caracteriza por:
Movimiento que se realiza sobre una línea recta.
Velocidad constante; implica magnitud y dirección constantes.
La magnitud de la velocidad recibe el nombre de celeridad o rapidez.
Aceleración nula.
Características: la distancia recorrida se calcula multiplicando la magnitud de la velocidad
media (celeridad o rapidez) por el tiempo transcurrido. Esta relación también es aplicable
si la trayectoria no es rectilínea, con tal que la celeridad o módulo de la velocidad sea
constante llamado movimiento de un cuerpo.
Por lo tanto el movimiento puede considerarse en dos sentidos; una velocidad negativa
representa un movimiento en dirección contraria al sentido que convencionalmente
hayamos adoptado como positivo.
De acuerdo con la Primera Ley de Newton, toda partícula permanece en reposo o en
movimiento rectilíneo uniforme cuando no hay una fuerza neta que actúe sobre el cuerpo.
Esta es una situación ideal, ya que siempre existen fuerzas que tienden a alterar el
movimiento de las partículas, por lo que en el movimiento rectilíneo uniforme (M.R.U) es
difícil encontrar la fuerza amplificada.
1.3 Movimiento uniformemente acelerado
En física, el movimiento uniformemente acelerado (MUA) es aquel movimiento en el que
la aceleración que experimenta un cuerpo permanece constante (en magnitud y dirección)
en el transcurso del tiempo.
Existen dos tipos de movimiento, caracterizados por su trayectoria, de esta categoría:
1. El movimiento rectilíneo uniformemente acelerado, en el que la trayectoria es rectilínea,
que se presenta cuando la aceleración y la velocidad inicial tienen la misma dirección.
2. El movimiento parabólico, en el que la trayectoria descrita es una parábola, que se
presenta cuando la aceleración y la velocidad inicial no tienen la misma dirección.
En el movimiento circular uniforme, la aceleración tan solo es constante en módulo, pero
no lo es en dirección, por ser cada instante perpendicular a la velocidad, estando dirigida
hacia el centro de la trayectoria circular (aceleración centrípeta).Por ello, no puede
considerarsele un movimiento uniformemente acelerado, a menos que nos refiramos a su
aceleración angular.
2. Fuerzas, leyes de Newton y Ley de la Gravitación Universal
2.1 Factores que cambian la estructura o el estado de movimiento de objetos
Factores que cambian la estructura o el estado de movimiento de objetos: Son todas
aquellas fuerzas y conceptos que a continuación se definen.
Fuerza por contacto: Es aquella fuerza de rozamiento que se genera cuando un cuerpo
móvil choca con un cuerpo estático o en reposo surgiendo un movimiento en este
segundo cuerpo.
Fuerza a distancia: Es aquella fuerza que surge por medio de la repulsión o atracción que
genera un cuerpo en movimiento hacia otro que se localiza en reposo, la cual genera
movimiento en este segundo cuerpo. Por ejemplo las cargas eléctricas del mismo signo
se repelen haciendo que el cuerpo en reposo tenga movimiento.
Fuerzas activas: Son aquellas fuerzas de acción que se encuentran dentro de un cuerpo
en movimiento o en reposo, las cuales actúan para llevar a cabo un desplazamiento.
Fuerzas reactivas: Son aquellas fuerzas de reacción que actúan dentro de un cuerpo al
recibir una fuerza externa contraria a su movimiento o estado de reposo.
Peso de un cuerpo: Es igual a la fuerza gravitacional que ejerce dicho cuerpo sobre la
superficie de la tierra, en otras palabras, es el producto de la masa del cuerpo por la
aceleración gravitacional.
G= N
m=kg
g=9.8 m/s2
G= mg
2.2 El concepto de fuerza
En física, la fuerza es una magnitud física que mide la intensidad del intercambio de
momento lineal entre dos partículas o sistemas de partículas (en lenguaje de la física de
partículas se habla de interacción). Según una definición clásica, fuerza es todo agente
capaz de modificar la cantidad de movimiento o la forma de los cuerpos materiales. No
debe confundirse con los conceptos de esfuerzo o de energía.
En el Sistema Internacional de Unidades, la fuerza se mide en newtons (N).
2.3 El carácter vectorial de la fuerza
Toda fuerza está representada por magnitudes vectoriales, las cuales se representan por
medio de una flecha en el plano cartesiano y para obtener los componentes se requiere
conocer lo siguiente:
•Dirección de la fuerza: Recta en la que se mueve, esta puede ser este u oeste y/o el
ángulo que forma con una horizontal x.
•Sentido de la fuerza: Hacia donde se dirige arriba, abajo, izquierda y derecha; la
representa la punta de la flecha.
•Magnitud del desplazamiento: Es la medida de escala escogida para la representación en
el plano.
•Punto de partida de la fuerza: Lugar donde
2.4 Superposición de fuerzas
¿A qué se le llama ―principio de superposición de fuerzas‖?
Se conoce como principio de superposición de fuerzas al hecho de que podemos sustituir
un grupo de fuerzas que son aplicadas a un punto (x), por alguna otra fuerza (R) siempre
y cuando se mantenga la relación de fuerzas en el sistema. Simplemente es una manera
de simplificar el sistema, utilizando un solo dato.
2.5 Primera Ley de Newton
La primera ley del movimiento rebate la idea aristotélica de que un cuerpo sólo puede
mantenerse en movimiento si se le aplica una fuerza. Newton expone que:
Todo cuerpo persevera en su estado de reposo o movimiento uniforme y rectilíneo a no
ser que sea obligado a cambiar su estado por fuerzas impresas sobre él.
Esta ley postula, por tanto, que un cuerpo no puede cambiar por sí solo su estado inicial,
ya sea en reposo o en movimiento rectilíneo uniforme, a menos que se aplique una fuerza
o una serie de fuerzas cuyo resultante no sea nulo sobre él. Newton toma en cuenta, así,
el que los cuerpos en movimiento están sometidos constantemente a fuerzas de roce o
fricción, que los frena de forma progresiva, algo novedoso respecto de concepciones
anteriores que entendían que el movimiento o la detención de un cuerpo se debía
exclusivamente a si se ejercía sobre ellos una fuerza, pero nunca entendiendo como esta
a la fricción.
En consecuencia, un cuerpo con movimiento rectilíneo uniforme implica que no existe
ninguna fuerza externa neta o, dicho de otra forma, un objeto en movimiento no se
detiene de forma natural si no se aplica una fuerza sobre él. En el caso de los cuerpos en
reposo, se entiende que su velocidad es cero, por lo que si esta cambia es porque sobre
ese cuerpo se ha ejercido una fuerza neta.
2.6 Segunda Ley de Newton
La segunda ley del movimiento de Newton dice que el cambio de movimiento es
proporcional a la fuerza motriz impresa y ocurre según la línea recta a lo largo de la cual
aquella fuerza se imprime.
Esta ley explica qué ocurre si sobre un cuerpo en movimiento (cuya masa no tiene por
qué ser constante) actúa una fuerza neta: la fuerza modificará el estado de movimiento,
cambiando la velocidad en módulo o dirección. En concreto, los cambios experimentados
en la cantidad de movimiento de un cuerpo son proporcionales a la fuerza motriz y se
desarrollan en la dirección de esta; esto es, las fuerzas son causas que producen
aceleraciones en los cuerpos. Consecuentemente, hay relación entre la causa y el efecto,
esto es, la fuerza y la aceleración están relacionadas. Dicho sintéticamente, la fuerza se
define simplemente en función del momento en que se aplica a un objeto, con lo que dos
fuerzas serán iguales si causan la misma tasa de cambio en el momento del objeto.
En términos matemáticos esta ley se expresa mediante la relación:
[pic]
Donde [pic] es la cantidad de movimiento y [pic] la fuerza total. Si suponemos la masa
constante y nos manejamos con velocidades que no superen el 10% de la velocidad de la
luz podemos reescribir la ecuación anterior siguiendo los siguientes pasos:
Sabemos que [pic] es la cantidad de movimiento, que se puede escribir m.V donde m es
la masa del cuerpo y V su velocidad.
[pic]
Consideramos a la masa constante y podemos escribir aplicando estas modificaciones a
la ecuación anterior:
que es la ecuación fundamental de la dinámica, donde la constante de proporcionalidad,
distinta para cada cuerpo, es su masa de inercia. Veamos lo siguiente, si despejamos m
de la ecuación anterior obtenemos que m es la relación que existe entre [pic]y [pic]. Es
decir la relación que hay entre la fuerza aplicada al cuerpo y la aceleración obtenida.
Cuando un cuerpo tiene una gran resistencia a cambiar su aceleración (una gran masa)
se dice que tiene mucha inercia. Es por esta razón por la que la masa se define como una
medida de la inercia del cuerpo.
Por tanto, si la fuerza resultante que actúa sobre una partícula no es cero, esta partícula
tendrá una aceleración proporcional a la magnitud de la resultante y en dirección de ésta.
La expresión anterior así establecida es válida tanto para la mecánica clásica como para
la mecánica relativista, a pesar de que la definición de momento lineal es diferente en las
dos teorías: mientras que la dinámica clásica afirma que la masa de un cuerpo es siempre
la misma, con independencia de la velocidad con la que se mueve, la mecánica relativista
establece que la masa de un cuerpo aumenta al crecer la velocidad con la que se mueve
dicho cuerpo.
De la ecuación fundamental se deriva también la definición de la unidad de fuerza o
newton (N). Si la masa y la aceleración valen 1, la fuerza también valdrá 1; así, pues, el
newton es la fuerza que aplicada a una masa de un kilogramo le produce una aceleración
de 1 m/s². Se entiende que la aceleración y la fuerza han de tener la misma dirección y
sentido.
La importancia de esa ecuación estriba sobre todo en que resuelve el problema de la
dinámica de determinar la clase de fuerza que se necesita para producir los diferentes
tipos de movimiento: rectilíneo uniforme (m.r.u), circular uniforme (m.c.u) y uniformemente
acelerado (m.r.u.a).
Si sobre el cuerpo actúan muchas fuerzas, habría que determinar primero el vector suma
de todas esas fuerzas. Por último, si se tratase de un objeto que cayese hacia la tierra con
una resistencia del aire igual a cero, la fuerza sería su peso, que provocaría una
aceleración descendente igual a la de la gravedad.
2.6.1 Concepto de peso
En física, el peso de un cuerpo se define como un vector que tiene magnitud y dirección,
que apunta aproximadamente hacia el centro de la Tierra. El vector Peso es la fuerza con
la cual un cuerpo actúa sobre un punto de apoyo, a causa de la atracción de este cuerpo
por la fuerza de la gravedad.
La situación más corriente, es la del peso de los cuerpos en las proximidades de la
superficie de un planeta como la Tierra, o de un satélite. El peso de un cuerpo depende
de la intensidad del campo gravitatorio y de la masa del cuerpo. En el Sistema
Internacional de Magnitudes se establece que el peso, cuando el sistema de referencia es
la Tierra, comprende no solo la fuerza gravitatoria local, sino también la fuerza centrífuga
local debida a la rotación; por el contrario, el empuje atmosférico no se incluye.[1]
En las proximidades de la Tierra, todos los objetos materiales son atraídos por el campo
gravitatorio terrestre, estando sometidos a una fuerza (peso en el caso de que estén
sobre un punto de apoyo) que les imprime un movimiento acelerado, a menos que otras
fuerzas actúen sobre el cuerpo.
2.6.2 Concepto de masa
La masa, en física, es la medida de la inercia, que únicamente para algunos casos puede
entenderse como la magnitud que cuantifica la cantidad de materia de un cuerpo. La
unidad de masa, en el Sistema Internacional de Unidades es el kilogramo (kg). Es una
cantidad escalar y no debe confundirse con el peso, que es una cantidad vectorial que
representa una fuerza.
2.7 Tercera Ley de Newton
Con toda acción ocurre siempre una reacción igual y contraria: o sea, las acciones mutuas
de dos cuerpos siempre son iguales y dirigidas en sentido opuesto.
La tercera ley es completamente original de Newton (pues las dos primeras ya habían
sido propuestas de otras maneras por Galileo, Hooke y Huygens) y hace de las leyes de
la mecánica un conjunto lógico y completo. Expone que por cada fuerza que actúa sobre
un cuerpo, este realiza una fuerza de igual intensidad y dirección, pero de sentido
contrario sobre el cuerpo que la produjo. Dicho de otra forma, las fuerzas, situadas sobre
la misma recta, siempre se presentan en pares de igual magnitud y opuestas en sentido.
Este principio presupone que la interacción entre dos partículas se propaga
instantáneamente en el espacio (lo cual requeriría velocidad infinita), y en su formulación
original no es válido para fuerzas electromagnéticas puesto que estas no se propagan por
el espacio de modo instantáneo sino que lo hacen a velocidad finita "c".
Es importante observar que este principio de acción y reacción relaciona dos fuerzas que
no están aplicadas al mismo cuerpo, produciendo en ellos aceleraciones diferentes, según
sean sus masas. Por lo demás, cada una de esas fuerzas obedece por separado a la
segunda ley. Junto con las anteriores leyes, ésta permite enunciar los principios de
conservación del momento lineal y del momento angular.
2.8 Equilibrio rotacional y traslacional. Fuerza y torca
Equilibrio Traslacional.- Ocurre cuando no hay movimiento relativo de las coordenadas
(posición) del centro de masa de un cuerpo.
Equilibrio Rotacional.- Ocurre cuando un cuerpo o sistema no gira con respecto a algún
punto, aunque exista una tendencia.
En mecánica newtoniana, se denomina momento de una fuerza (respecto a un punto
dado) a una magnitud (pseudo)vectorial, obtenida como producto vectorial del vector de
posición del punto de aplicación de la fuerza con respecto al punto al cual se toma el
momento por la fuerza, en ese orden. También se le denomina momento dinámico o
sencillamente momento.
Ocasionalmente recibe el nombre de torque a partir del término inglés (torque), derivado a
su vez del latín torquere (retorcer). Este término intenta introducirse en la terminología
española, bajo las formas de torque o torca, aunque con escasa fortuna, ya que existe la
denominación par que es la correcta en español.
2.9 Ley de la Fuerza en un resorte (Ley de Hooke)
En física, la ley de elasticidad de Hooke o ley de Hooke, originalmente formulada para
casos del estiramiento longitudinal, establece que el alargamiento unitario que
experimenta un material elástico es directamente proporcional a la fuerza aplicada F:
[pic]
siendo δ el alargamiento, L la longitud original, E: módulo de Young, A la sección
transversal de la pieza estirada. La ley se aplica a materiales elásticos hasta un límite
denominado límite elástico.
Esta ley recibe su nombre de Robert Hooke, físico británico contemporáneo de Isaac
Newton. Ante el temor de que alguien se apoderara de su descubrimiento, Hooke lo
publicó en forma de un famoso anagrama, ceiiinosssttuv, revelando su contenido un par
de años más tarde. El anagrama significa Ut tensio sic vis ("como la extensión, así la
fuerza").
2.10 Ley de la Gravitación Universal. Movimiento de planetas
La gravedad, en física, es una de las cuatro interacciones fundamentales. Origina la
aceleración que experimenta un objeto en las cercanías de un objeto astronómico.
Por efecto de la gravedad tenemos la sensación de peso. Si estamos en un planeta y no
estamos bajo el efecto de otras fuerzas, experimentaremos una aceleración dirigida
aproximadamente hacia el centro del planeta. En la superficie de la Tierra, la aceleración
de la gravedad es aproximadamente: 9,81 m/s2
También se denomina fuerza gravitatoria, fuerza de gravedad, interacción gravitatoria o
gravitación. Einstein demostró que es una magnitud tensorial: «Dicha fuerza es una
ilusión, un efecto de la geometría. La Tierra deforma el espacio-tiempo de nuestro
entorno, de manera que el propio espacio nos empuja hacia el suelo».
2. Trabajo y leyes de la conservación
3.1 Concepto de trabajo mecánico
En mecánica clásica, el trabajo que realiza una fuerza se define como el producto de ésta
por el camino que recorre su punto de aplicación y por el coseno del ángulo que forman el
uno con el otro.[1] El trabajo es una magnitud física escalar que se representa con la letra
[pic](del inglés Work) y se expresa en unidades de energía, esto es en julios o joules (J)
en el Sistema Internacional de Unidades.
Matemáticamente se expresa como:
[pic]
Donde [pic]es el trabajo mecánico, [pic]es la magnitud de la fuerza, [pic] es la distancia
recorrida y [pic]es el ángulo que forman entre sí el vector fuerza y el vector
desplazamiento.
Cuando el vector fuerza es perpendicular al vector desplazamiento del cuerpo sobre el
que se aplica, dicha fuerza no realiza trabajo alguno. Asimismo, si no hay desplazamiento,
el trabajo también será nulo.
3.2 Concepto de potencia
Según la Enciclopedia Microsoft Encarta la Potencia es : ―El trabajo, o transferencia de
energía, realizado por unidad de tiempo. El trabajo es igual a la fuerza aplicada para
mover un objeto multiplicada por la distancia a la que el objeto se desplaza en la dirección
de la fuerza. La potencia mide la rapidez con que se realiza ese trabajo. En términos
matemáticos, la potencia es igual al trabajo realizado dividido entre el intervalo de tiempo
a lo largo del cual se efectúa dicho trabajo.
El concepto de potencia no se aplica exclusivamente a situaciones en las que se
desplazan objetos mecánicamente. También resulta útil, por ejemplo, en electricidad.
Imaginemos un circuito eléctrico con una resistencia. Hay que realizar una determinada
cantidad de trabajo para mover las cargas eléctricas a través de la resistencia. Para
moverlas más rápidamente —en otras palabras, para aumentar la corriente que fluye por
la resistencia— se necesita más potencia.
La potencia siempre se expresa en unidades de energía divididas entre unidades de
tiempo. La unidad de potencia en el Sistema Internacional es el vatio, que equivale a la
potencia necesaria para efectuar 1 julio de trabajo por segundo. Una unidad de potencia
tradicional es el caballo de vapor (CV), que equivale aproximadamente a 746 vatios.‖
Por último, y con el conocimiento previo que tenemos sobre el tema, en cuanto a
fórmulas, la Potencia se puede obtener de tres maneras:
P = T / t P = F · d / t P = F · V
Partiendo de la primer fórmula, la Potencia es igual al Trabajo (en algunos casos total)
divido entre el tiempo; la segunda fórmula aplica el término de que el trabajo es la Fuerza
por Distancia, esto entre un tiempo. La tercera aplica el concepto de Velocidad, siendo
una distancia recorrida en un cierto tiempo.
3.3 Energía cinética
La energía cinética de un cuerpo es una energía que surge en el fenómeno del
movimiento. Está definida como el trabajo necesario para acelerar un cuerpo de una masa
dada desde el reposo hasta la velocidad que posee. Una vez conseguida esta energía
durante la aceleración, el cuerpo mantiene su energía cinética salvo que cambie su
rapidez o su masa. Para que el cuerpo regrese a su estado de reposo se requiere un
trabajo negativo de la misma magnitud que su energía cinética.
3.4 Energía potencial
En un sistema físico, la energía potencial es energía que mide la capacidad que tiene
dicho sistema para realizar un trabajo en función exclusivamente de su posición o
configuración. Puede pensarse como la energía almacenada en el sistema, o como una
medida del trabajo que un sistema puede entregar. Suele abreviarse con la letra [pic]o
[pic].
La energía potencial puede presentarse como energía potencial gravitatoria, energía
potencial electrostática, y energía potencial elástica.
Más rigurosamente, la energía potencial es una magnitud escalar asociada a un campo
de fuerzas (o como en elasticidad un campo tensorial de tensiones). Cuando la energía
potencial está asociada a un campo de fuerzas, la diferencia entre los valores del campo
en dos puntos A y B es igual al trabajo realizado por la fuerza para cualquier recorrido
entre B y A.
3.5 Conservación de la energía mecánica
La energía se conserva, es decir, ni se crea ni se destruye. Para sistemas abiertos
formados por partículas que interactúan mediante fuerzas puramente mecánicas o
campos conservativos la energía se mantiene constante con el tiempo:
[pic].
Donde:
[pic], es la energía cinética del sistema.
[pic], es la energía potencial del sistema.
Es importante notar que la energía mecánica así definida permanece constante si
únicamente actúan fuerzas conservativas sobre las partículas. Sin embargo existen
ejemplos de sistemas de partículas donde la energía mecánica no se conserva:
Sistemas de partículas cargadas en movimiento. En ese caso los campos magnéticos no
derivan de un potencial y la energía mecánica no se conserva, ya que parte de la energía
mecánica "se convierte" en energía del campo electromagnético y viceversa.
Sistemas disipativos. En este caso parte de la energía cinética puede quedar como
energía interna o energía térmica de agitación de las moléculas o partes microscópicas
del sistema.
Sistemas termodinámicos que experimentan cambios de estado
3.6 Conservación del ímpetu (momento)
En la naturaleza existen cantidades que se deben conservar; es decir, sin importar el
proceso al que se les someta, siempre, la suma total debe ser igual. Algunas de estas
cantidades son: energía, carga eléctrica, ímpetu.
Los físicos llamamos ímpetu, desde el punto de vista de la mecánica clásica, al producto
de la masa de un objeto por su velocidad. Ósea, es una cantidad muy parecida a la
energía cinética.
De acuerdo con el principio de conservación del ímpetu: la cantidad de ímpetu inicial se
debe transferir íntegramente al sistema y perecer igual sin importar la cantidad de veces
que se transferir o se distribuyo. Como una imagen, dice más que mil palabras, pues para
eso es video presente.
Consiste de una serie de canicas colgantes, alineadas y muy juntas entre si, muchos
hemos visto este juguete funcionando. Cuando tomamos una de estas canicas y la
estrellamos con las demás alineadas, se observa que la única que se altera y se mueve
es la canica del final de la línea, mientras que el resto de las canicas no se mueve.
Cuando era un niño me gustaba mucho este experimento, porque cuando tomaba dos
canicas y las tiraba a las demás, solamente las dos del final se movían y así
consecutivamente.
Este sencillo experimento tiene interesante implicaciones cuando se estrellan los autos,
pues en ellos se debe conservar el ímpetu, la diferencia radica que las canicas no se
deforman y la energía se trasmite íntegramente a la siguiente canica. Pero, en el auto
parte del ímpetu se dispersa en la deformación del metal.
3.7 Colisiones entre partículas en una dimensión
Colisiones
Durante un choque actúa una fuerza relativamente grande sobre las partículas que
impactan, aunque solo lo hacen durante un intervalo de tiempo más o menos pequeño.
Básicamente en una colisión el movimiento de las partículas que chocan (o,por lo menos,
el de una de ellas) cambia en forma muy brusca y que podemos establecer una
separación bastante definida entre los tiempos que transcurren "antes de la colisión" y los
que lo hacen "después de ella".
Por ejemplo, cuando un bate golpea una pelota de béisbol, el principio y el fin de la
colisión puede determinarse con muy buena precisión. El bate está en contacto con la
pelota durante un intervalo de tiempo que es muy pequeño comparado con el tiempo en
que la pelota esta en el aire. Durante la colisión el bate le aplica una gran fuerza a la
pelota. Esta fuerza varía con el tiempo en una forma tan completa que solo puede
medirse con dificultad. Tanto la pelota como el bate se desforman durante la colisión.
En las colisiones se verifica el principio de acción y reacción, es decir si el bate le aplica
una fuerza a la pelota, la pelota reacciona con una fuerza de igual magnitud pero de
sentido contrario, aunque en realidad es indistinto cual es la fuerza de acción y cual la de
reacción, podemos decir si la pelota le aplica una fuerza al bate, el bate reacciona con
una fuerza de igual magnitud pero de sentido contrario. En el caso de las colisiones estas
fuerzas actúan durante lapso de tiempo muy pequeño y se denominan fuerzas
instantáneas o impulsivas.
Cuando dos electrones "chocan" la fuerza que actúa entre ambos puede ser conocida
fuerza electrostática de repulsión que está asociada con la carga de las partículas. Puede
ser que las partículas no se toquen, pero aún así, podemos hablar de una colisión, porque
una fuerza relativamente grande que actúa durante un tiempo que se considera pequeño
comparado con el tiempo en que las partículas están en observación, tiene un gran efecto
en el movimiento de los electrones.
Cuando un protón (H¹ o p) de 25 MeV de energía (1 MeV = 6,242.1012 J), "choca" con un
núcleo de un isótopo de la plata (Ag107), las partículas pueden realmente "tocarse" ya
que, en éste caso, la fuerza predominante que actúa entre ellas no es la fuerza
electrostática repulsiva, si no la fuerza nuclear atractiva que es intensa y de corto alcance.
El protón puede penetrar en el núcleo de la plata para formar una estructura compuesta,
después de un tiempo pequeño -el "intervalo de la colisión" puede ser de 1018 segundos-
la estructura compuesta puede separarse en dos partículas diferentes según un esquema
tal como:
p + Ag107 → α + Pd104
En el que α = He4 es una partícula alfa. En consecuencia el concepto de colisión puede
aplicarse para que incluya eventos (que generalmente se llaman reacciones) en los que
cambian las identidades de las partículas que interaccionan. Los principios de
conservación son aplicables a todos estos ejemplos.
Si se desea, la definición de una colisión puede ampliarse aún más para incluir en ella a la
desintegración espontánea de una partícula en dos o más partículas distintas. Un ejemplo
de esto es la desintegración de una partícula elemental, llamada la partícula sigma, en
otras dos partículas, el pión y el neutrón según el esquema:
∑ ® π - + n
Aunque en éste proceso no ocurre que dos cuerpos lleguen a estar en contacto (a menos
que se le considere en sentido inverso) tiene muchas características en común con las
colisiones, a saber:
1 - Hay una distinción clara entre "antes del suceso" y "después de suceso".
2 - Las leyes de la conservación del ímpetu y de la energía proporcionan mucha
información relacionada con éste tipo de proceso, estudiando las situaciones "antes" y
"después", aún cuando se sepa poco sobre las leyes de las fuerzas que operan durante el
"evento" mismo.
3.8 Procesos disipativos (fricción y rozamiento)
La ley de la conservación de la energía constituye el primer principio de la termodinámica
y afirma que la cantidad total de energía en cualquier sistema aislado permanece
invariable con el tiempo, aunque esta se puede transformar en otro tipo de energía, la
energía no puede crearse ni destruirse, si no que sólo se pude cambiar de una forma a
otra.
Sin embargo la segunda ley de la termodinámica expresa que ―La cantidad de entropía
(magnitud que mide la parte de la energía que no puede utilizarse para producir un
trabajo) de cualquier sistema aislado termodinámicamente se incrementa con el tiempo‖.
Cuando una parte de un sistema cerrado interacciona con otra parte, la energía se divide
hasta alcanzar un equilibrio térmico.
Se puede deducir que la energía no se conserva, si no que es transformada en otra, esta
energía puede llegar a ser térmica, eléctrica, química, nuclear, entre otras.
Si la energía de un sistema es degradada en forma de calor se dice que es disipativo.
Los procesos disipativos, son aquellos que transforman la energía mecánica en energía
térmica, por ejemplo: el rozamiento entre dos superficies sólidas, la fricción viscosa en el
interior de un fluido, la resistencia eléctrica, entre otras.
El rozamiento o fricción, se divide en dos tipos, la fricción estática (FE), es una resistencia
entre dos objetos que debe de ser superada para ponerse en movimiento; y la fricción
dinámica (FD), es una fuerza de magnitud considerada constante, que se opone al
movimiento cuando ya ha comenzado. No existe una idea clara de la diferencia que
existe entre el rozamiento dinámico y el estático, pero se tiende a pensar que el estático
es algo mayor que el dinámico, porque al permanecer en reposo ambas superficies
pueden aparecer enlaces iónicos, o incluso microsoldaduras entre las superficies, factores
que desaparecen en estado de movimiento.
En el caso de la fricción viscosa, Como ejemplo en el caso de un auto o de un aeroplano
que se mueven: el aire genera una fuerza que se opone al movimiento; o cuando
nadamos en una alberca: el agua se opone a nuestro movimiento. Esta fuerza de
oposición se debe a la viscosidad del fluido. Mientras mayor sea la velocidad con que se
mueve el cuerpo dentro del fluido, mayor será la fuerza de oposición, o de fricción
viscosa, que se genere.
4. Termodinámica
4.1 Calor y temperatura
Calor.- Fenómeno físico que eleva la temperatura y dilata, funde, volatiliza o descompone
un cuerpo. El calor de un cuerpo es la suma de la energía cinética de todas sus
moléculas.
El tema calor constituye la rama de la Física que se ocupa de los movimientos de las
moléculas, ya sean de un gas, un líquido o un sólido. Al aplicar calor a un cuerpo, éste
aumenta su energía. Pero existe una diferencia sustancial entre la energía térmica que
posee un cuerpo y su temperatura.
Temperatura.- Grado de calor en los cuerpos. Para medir la temperatura, se utiliza el
termómetro de mercurio, que consiste en un tubo estrecho de vidrio (llamado capilar), con
el fondo ensanchado en una ampolla pequeña y el extremo superior cerrado.
La ampolla o depósito y parte del capilar están llenos de mercurio y en la parte restante se
ha hecho el vacío. Para leer la temperatura se utiliza una escala que está grabada en el
vidrio.
4.1.1 Diferencia entre calor y temperatura
No son lo mismo, pero si son conceptos que se encuentran intimamente relacionados.
En la física, específicamente la termodinámica, el calor es la energía que se transfiere
desde un sistema o cuerpo a otro, debido a una diferencia de temperatura.
La temperatura es una propiedad física en un sistema, una medición de energía por así
decirlo, relacionada con lo que comúnmente llamamos caliente y frío, pero que no es
exáctamente lo mismo que esta definición popular. (en realidad no sentimos algo caliente
solo porque tiene gran temperatura, sino que se debe a la transferencia de calor, por
ejemplo con una buena alfombra, la que no es buena transmisora de calor, la sentimos
"calentita", más allá de su medida de temperatura) la temperatura es una variable que
refleja le energía interna del sistema en cuestión, asociada a las vibraciónes y
movimientos internos de las partículas. La temperatura la medimos en escalas, que son
arbitrarias, y sirven para homologar nuestras mediciones de esta energía.
Desde otro punto de vista, podemos afirmar que el calor permite que la temperatura
aumente o también disminuya en un objeto en particular, según el caso, debido a la
transferencia de energía que se produce con otro objeto o el medio que lo rodea
4.1.2 Equilibrio térmico
Para poder dar una definición más precisa del concepto de equilibrio térmico desde un
punto de vista termodinámico es necesario definir algunos conceptos.
Dos sistemas que están en contacto mecánico directo o separados mediante una
superficie que permite la transferencia de calor lo que se conoce como superficie
diatérmica, se dice que están en contacto térmico.
Consideremos entonces dos sistemas en contacto térmico, dispuestos de tal forma que no
puedan mezclarse o reaccionar químicamente. Consideremos además que estos
sistemas están colocados en el interior de un recinto donde no es posible que
intercambien calor con el exterior ni existan acciones desde el exterior capaces de ejercer
trabajo sobre ellos. La experiencia indica que al cabo de un tiempo estos sistemas
alcanzan un estado de equilibrio termodinámico que se denominará estado de equilibrio
térmico recíproco o simplemente de equilibrio térmico.
El concepto de equilibrio térmico puede extenderse para hablar de un sistema o cuerpo en
equilibrio térmico. Cuando dos porciones cuales sean de un sistema se encuentran en
equilibrio térmico se dice que el sistema mismo está en equilibrio térmico o que es
térmicamente homogéneo.
4.1.3 Escalas termométricas absolutas
Cualquier propiedad de un cuerpo que dependa de la temperatura puede utilizarse para
definir una escala de temperatura.
Para hacerlo, debemos asignar primero las temperaturas de dos puntos fijos (como el
punto de fusión del hielo y el punto de ebullición del agua).
Resulta conveniente tener, además de estas escalas físicas, una sencilla escala numérica
de temperaturas –entre otras razones, para así no tener que utilizar 15 palabras para dar
el valor de una única temperatura. Una escala definida de temperatura se obtiene
asignando arbitrariamente valores numéricos a dos temperaturas fácilmente medibles y
reproducibles; por ejemplo, asignando un valor de 0 al punto de fusión del hielo y un valor
de 100 al punto de ebullición del agua a una presión de una atmósfera. Esto especifica
completamente a la escala, ya que además de localizar los dos puntos especifica que la
longitud de un intervalo unitario de temperatura (llamado grado) es 1/100 de la distancia
entre los dos puntos de referencia en la escala.
Las dos escalas de temperatura más comunes se definen utilizando la temperatura de
fusión (Tf) y la temperatura de ebullición (Te) del agua a una presión de 1 atmósfera.
Una de las primeras escalas de temperatura, todavía empleada en los países
anglosajones, fue diseñada por el físico alemán Gabriel Daniel Fahrenheit. Según esta
escala, a la presión atmosférica normal, el punto de solidificación del agua (y de fusión del
hielo) es de 32 °F, y su punto de ebullición es de 212 °F. La escala centígrada o Celsius,
ideada por el astrónomo sueco Anders Celsius y utilizada en casi todo el mundo, asigna
un valor de 0 °C al punto de congelación del agua y de 100 °C a su punto de fusión. En
ciencia, la escala más empleada es la escala absoluta o Kelvin, inventada por el
matemático y físico británico William Thomson , lord Kelvin. En esta escala, el cero
absoluto, que está situado en -273,15 °C, corresponde a 0 K, y una diferencia de un kelvin
equivale a una diferencia de un grado en la escala centígrada.
Para graduar un termómetro, primero se coloca el depósito en una mezcla de hielo y
agua, y en el lado del vástago se marca la altura de la columna de mercurio. Luego se
coloca en vapor encima de agua hirviendo y se vuelve a marcar. Estas dos señales
determinan los puntos extremos para cualquier escala que se vaya a usar.
Las escalas Kelvin y Rankine empiezan con la temperatura más baja posible como cero
absoluto.
Pueden utilizarse las siguientes relaciones a fin de convertir una temperatura expresada
en una escala a su equivalente en otra escala.
T(K) = T(°C) + 273.15
T(°R) = T(°F) + 459.67
T(°R) = 1.8T(K)
T(°F) = 1.8T(°C) + 32
4.1.4 Conductividad calorífica y capacidad térmica específica
Conductividad calorífica y capacidad térmica específica
La conductividad térmica es una propiedad física de los materiales que mide la capacidad
de conducción de calor. En otras palabras la conductividad térmica es también la
capacidad de una sustancia de transferir el movimiento cinético de sus moléculas a sus
propias moléculas adyacentes o a otras substancias con las que está en contacto.
La inversa de la conductividad térmica es la resistividad térmica, que es la capacidad de
los materiales para oponerse al paso del calor.
4.1.5 Leyes de la Termo dinámica
Principio cero de la termodinámica
Este principio establece que existe una determinada propiedad, denominada temperatura
empírica θ, que es común para todos los estados de equilibrio termodinámico que se
encuentren en equilibrio mutuo con uno dado. Tiene tremenda importancia experimental
— pues permite construir instrumentos que midan la temperatura de un sistema — pero
no resulta tan importante en el marco teórico de la termodinámica.
El equilibrio termodinámico de un sistema se define como la condición del mismo en el
cual las variables empíricas usadas para definir o dar a conocer un estado del sistema
(presión, volumen, campo eléctrico, polarización, magnetización, tensión lineal, tensión
superficial, coordenadas en el plano x , y) no son dependientes del tiempo. El tiempo es
un parámetro cinético, asociado a nivel microscópico; el cual a su vez esta dentro de la
físico química y no es parámetro debido a que a la termodinámica solo le interesa trabajar
con un tiempo inicial y otro final. A dichas variables empíricas (experimentales) de un
sistema se las conoce como coordenadas térmicas y dinámicas del sistema.
Este principio fundamental, aun siendo ampliamente aceptado, no fue formulado
formalmente hasta después de haberse enunciado las otras tres leyes. De ahí que
recibiese el nombre de principio cero.
Primera ley de la termodinámica
También conocida como principio de conservación de la energía para la termodinámica —
en realidad el primer principio dice más que una ley de conservación—, establece que si
se realiza trabajo sobre un sistema o bien éste intercambia calor con otro, la energía
interna del sistema cambiará. Visto de otra forma, esta ley permite definir el calor como la
energía necesaria que debe intercambiar el sistema para compensar las diferencias entre
trabajo y energía interna. Fue propuesta por Nicolas Léonard Sadi Carnot en 1824, en su
obra Reflexiones sobre la potencia motriz del fuego y sobre las máquinas adecuadas para
desarrollar esta potencia, en la que expuso los dos primeros principios de la
termodinámica. Esta obra fue incomprendida por los científicos de su época, y más tarde
fue utilizada por Rudolf Loreto Clausius y Lord Kelvin para formular, de una manera
matemática, las bases de la termodinámica.
La ecuación general de la conservación de la energía es la siguiente:
Eentra − Esale = ΔEsistema
Que aplicada a la termodinámica teniendo en cuenta el criterio de signos termodinámico,
queda de la forma:
ΔU = Q − W
Donde U es la energía interna del sistema (aislado), Q es la cantidad de calor aportado al
sistema y W es el trabajo realizado por el sistema.
[pic]
[pic]ilustración de la segunda ley mediante una máquina térmica
Segunda ley de la termodinámica
Esta ley arrebata la dirección en la que deben llevarse a cabo los procesos
termodinámicos y, por lo tanto, la imposibilidad de que ocurran en el sentido contrario (por
ejemplo, que una mancha de tinta dispersada en el agua pueda volver a concentrarse en
un pequeño volumen). También establece, en algunos casos, la imposibilidad de convertir
completamente toda la energía de un tipo en otro sin pérdidas. De esta forma, la segunda
ley impone restricciones para las transferencias de energía que hipotéticamente pudieran
llevarse a cabo teniendo en cuenta sólo el Primer Principio. Esta ley apoya todo su
contenido aceptando la existencia de una magnitud física llamada entropía, de tal manera
que, para un sistema aislado (que no intercambia materia ni energía con su entorno), la
variación de la entropía siempre debe ser mayor que cero.
Debido a esta ley también se tiene que el flujo espontáneo de calor siempre es
unidireccional, desde los cuerpos de mayor temperatura hacia los de menor temperatura,
hasta lograr un equilibrio térmico.
La aplicación más conocida es la de las máquinas térmicas, que obtienen trabajo
mecánico mediante aporte de calor de una fuente o foco caliente, para ceder parte de
este calor a la fuente o foco o sumidero frío. La diferencia entre los dos calores tiene su
equivalente en el trabajo mecánico obtenido.
Existen numerosos enunciados equivalentes para definir este principio, destacándose el
de Clausius y el de Kelvin.
Enunciado de Clausius
[pic]
[pic]Diagrama del ciclo de Carnot en función de la presión y el volumen.
En palabras de Sears es: "No es posible ningún proceso cuyo único resultado sea la
extracción de calor de un recipiente a una cierta temperatura y la absorción de una
cantidad igual de calor por un recipiente a temperatura más elevada".
Enunciado de Kelvin
No existe ningún dispositivo que, operando por ciclos, absorba calor de una única fuente
(E.absorbida), y lo convierta íntegramente en trabajo (E.útil).
Enunciado de Kelvin - Planck
Es imposible construir una máquina térmica que, operando en un ciclo, no produzca otro
efecto que la absorción de energía desde un depósito, y la realización de una cantidad
igual de trabajo.
Otra interpretación
Es imposible construir una máquina térmica cíclica que transforme calor en trabajo sin
aumentar la energía termodinámica del ambiente. Debido a esto podemos concluir, que el
rendimiento energético de una máquina térmica cíclica que convierte calor en trabajo,
siempre será menor a la unidad, y ésta estará más próxima a la unidad, cuanto mayor sea
el rendimiento energético de la misma. Es decir, cuanto mayor sea el rendimiento
energético de una máquina térmica, menor será el impacto en el ambiente, y viceversa.
Tercera ley de la termodinámica
La Tercera de las leyes de la termodinámica, propuesta por Walther Nernst, afirma que es
imposible alcanzar una temperatura igual al cero absoluto mediante un número finito de
procesos físicos. Puede formularse también como que a medida que un sistema dado se
aproxima al cero absoluto, su entropía tiende a un valor constante específico. La entropía
de los sólidos cristalinos puros puede considerarse cero bajo temperaturas iguales al cero
absoluto. No es una noción exigida por la Termodinámica clásica, así que es
probablemente inapropiado tratarlo de ―ley‖.
Es importante recordar que los principios o leyes de la Termodinámica son sólo
generalizaciones estadísticas, válidas siempre para los sistemas macroscópicos, pero
inaplicables a nivel cuántico. El demonio de Maxwell ejemplifica cómo puede concebirse
un sistema cuántico que rompa las leyes de la Termodinámica.
Asimismo, cabe destacar que el primer principio, el de conservación de la energía, es la
más sólida y universal de las leyes de la naturaleza descubiertas hasta ahora por las
ciencias.
4.2 Teoría Cinética de los Gases
El postulado básico de la teoría cinética de los gases es que las direcciones y las
magnitudes de las velocidades de las moléculas están distribuidas al azar.
Cuando nos referimos a las velocidades de las moléculas, las medimos respecto del
centro de masas del sistema gaseoso, por tanto, la presión y la temperatura del gas no se
modifican si el recipiente que lo contiene está en movimiento.
Si suponemos que las velocidades en el sentido positivo del eje X (o del eje Y o Z) son
igualmente probables que en el sentido negativo, las velocidades medias a lo largo de los
ejes son cero, es decir.
===0.
Por otra parte, se cumplirá que las velocidades a lo largo del eje X no estarán
relacionadas con las velocidades a lo largo del eje Y o Z, por tanto,
==.
Como el cuadrado del módulo de la velocidad es v2= v2x +v2y +v2z resulta que < v2>=3<
v2x>
La presión ejercida por el gas
Supongamos que el gas está encerrado en un recipiente, tal como se muestra en la
figura. El recipiente dispone de un émbolo móvil de área A. Para mantener fijo el émbolo
es necesario ejercer una fuerza F, normalmente a la superficie del émbolo. El valor de la
fuerza F es igual al producto de la presión ejercida por el gas por el área del émbolo.
F=PA
[pic]
Las moléculas del gas chocan elásticamente con el émbolo, de modo que la componente
X de la velocidad cambia de sentido. Por tanto, el cambio en el momento lineal de cada
molécula es
Δp=2mvx
[pic]
Si el número total de moléculas que chocan con el émbolo en el intervalo de tiempo
comprendido entre t y t+Δt es Nx, la variación de momento lineal será 2mvxNx.
Podemos calcular Nx considerando que solamente la mitad de las moléculas, en
promedio, tienen el sentido de la velocidad hacia la parte positiva del eje X, es decir, se
dirigen hacia el émbolo.
Si suponemos que las moléculas que chocan con el émbolo tienen el mismo valor de la
componente X de la velocidad, cruzarán el área A en el tiempo Dt todas las partículas
contenidas en el volumen AvxΔt. Si n es el número de partículas por unidad de volumen
Nx valdrá entonces, nAvxΔt/2.
[pic]
La variación de momento lineal Dp en el intervalo de tiempo comprendido entre t y t+Δt es
mvx nAvxΔt.
La fuerza sobre el émbolo es el cociente entre el cambio de momento lineal y el tiempo
que tarda en efectuarse dicho cambio.
[pic]
y por tanto, la presión ejercida por el gas vale
P=n(mv2x)
Todas las moléculas no tienen el mismo valor vx de la velocidad, sino que la distribución
de velocidades es tal que su valor medio cuadrático es . Por tanto, en la expresión de la
presión P, hemos de sustituir v2x por .
[pic](1)
ya que =/3
El último término que aparece en la fórmula es el valor medio de la energía cinética.
4.2.1 Estructura de la materia (enfoque clásico)
El enfoque clásico de la estructura de la materia establece que la misma esta formada por
átomos. El primero en utilizar este termino fue Democrito, porque creía que los cuerpos
estaban formados por pequeñas partículas indivisibles. (Átomo, en griego, significa
indivisible). Se pensaba que la materia era continua. No es sino hasta 1803 que el
científico Jhon Dalton cambia esta concepción, proponiendo la existencia de un límite a la
subdivisión de la materia o los elementos, estableciendo que los átomos son indivisibles.
A Dalton se le considera el padre de la Teoría Atómica Moderna.
4.2.2 Temperatura según la Teoría Cinética de los Gases
Esta teoría considera una determinada masa gaseosa formada por un conjunto de
partículas idealmente esféricas dotadas de una masa m y una velocidad v, moviéndose de
forma desordenada en todas direcciones y chocando unas contra otras y con las paredes
del recipiente que les contiene.
Estructura de la materia: La materia esta formada por moléculas, las que a su vez
contienen a los átomos que están formados por electrones, protones y neutrones.
Temperatura según la teoría cinética de los gases:
Considerando el número total de moléculas existentes en un mol de gas (número de
Avogadro) y la velocidad media de las partículas a partir de la relación: PV= nRT.
Se establece la siguiente expresión:
T=(2/3)(Na/R)(1/2)MV2
En esta igualdad se encuentra invertida la relación entre la constante absoluta de los
gases y el número de Avogadro, la llamada constante de Boltzmann.
K=R/Na
4.2.3 Ecuación de estado de los gases ideales
La ley de los gases ideales es la ecuación de estado del gas ideal, un gas hipotético
formado por partículas puntuales, sin atracción ni repulsión entre ellas y cuyos choques
son perfectamente elásticos (conservación de momento y energía cinética). Los gases
reales que más se aproximan al comportamiento del gas ideal son los gases
monoatómicos en condiciones de baja presión y alta temperatura.
Empíricamente, se observan una serie de relaciones entre la temperatura, la presión y el
volumen que dan lugar a la ley de los gases ideales, deducida por primera vez por Émile
Clapeyron en 1834.
La ecuación de estado
La ecuación que describe normalmente la relación entre la presión, el volumen, la
temperatura y la cantidad (en moles) de un gas ideal es:
[pic]
Donde:
• [pic]= Presión
• [pic]= Volumen
• [pic]= Moles de Gas.
• [pic]= Constante universal de los gases ideales .
• [pic]= Temperatura absoluta
[editar] Teoría cinética molecular
Esta teoría fue desarrollada por Ludwig Boltzmann y Maxwell. Nos indica las propiedades
de un gas ideal a nivel molecular.
• Todo gas ideal está formado por N pequeñas partículas puntuales (átomos o
moléculas).
• Las moléculas gaseosas se mueven a altas velocidades, en forma recta y
desordenada.
• Un gas ideal ejerce una presión continua sobre las paredes del recipiente que lo
contiene, debido a los choques de las partículas con las paredes de éste.
• Los choques moleculares son perfectamente elásticos. No hay pérdida de energía
cinética.
• No se tienen en cuenta las interacciones de atracción y repulsión molecular.
• La energía cinética media de la translación de una molécula es directamente
proporcional a la temperatura absoluta del gas.
En estas circunstancias, la ecuación de los gases se encuentra teóricamente:
[pic]
donde κB es la constante de Boltzmann, donde N es el número de partículas.
[editar] La ecuación de estado para gases reales
Artículo principal: Ley de los gases reales
|Valores de R |
|[pic] |
|[pic] |
|[pic] |
|[pic] |
|[pic] |
|[pic] |
|[pic] |
|[pic] |
|[pic] |
Haciendo una corrección a la ecuación de estado de un gas ideal, es decir, tomando en
cuenta las fuerzas intermoleculares y volúmenes intermoleculares finitos, se obtiene la
ecuación para gases reales, también llamada ecuación de Van der Waals:
[pic]
Donde:
• [pic]= Presión del gas
• [pic]= Volumen del gas
• [pic]= Moles de gas.
• [pic]= Constante universal de los gases ideales
• [pic]= Temperatura.
• [pic]y [pic]son constantes determinadas por la naturaleza del gas con el fin de que
haya la mayor congruencia posible entre la ecuación de los gases reales y el
comportamiento observado experimentalmente.
[editar] Ecuación general de los gases ideales
Partiendo de la ecuación de estado:
[pic]
Tenemos que:
[pic]
Donde R es la constante universal de los gases ideales, luego para dos estados del
mismo gas, 1 y 2:
[pic]
Para una misma masa gaseosa (por tanto, el número de moles «n» es constante),
podemos afirmar que existe una constante directamente proporcional a la presión y
volumen del gas, e inversamente proporcional a su temperatura.
[pic]
[editar] Formas alternativas
Como la cantidad de sustancia podría ser dada en masa en lugar de moles, a veces es
útil una forma alternativa de la ley del gas ideal. El número de moles (n) es igual a la masa
(m) dividido por la masa molar (M):
[pic]
y sustituyendo [pic], obtenemos:
[pic]
donde:
[pic]
Esta forma de la ley del gas ideal es muy útil porque se vincula la presión, la densidad ρ =
m/ V, y la temperatura en una fórmula única, independiente de la cantidad del gas
considerado.
En mecánica estadística las ecuaciones moleculares siguientes se derivan de los
principios básicos:
[pic]
Aquí k es el constante de Boltzmann y N es el número actual de moléculas, a diferencia
de la otra fórmula, que utiliza n, el número de moles. Esta relación implica que Nk = nR, y
la coherencia de este resultado con el experimento es una buena comprobación en los
principios de la mecánica estadística.
Desde aquí podemos observar que para que una masa de la partícula promedio de μ
veces la constante de masa atómica m U (es decir, la masa es μ U)
[pic]
y desde ρ = m/ V, nos encontramos con que la ley del gas ideal puede escribirse como:
[pic]
5. Ondas
5.1 Caracterización de ondas mecánicas
Ondas mecánicas: las ondas mecánicas necesitan un medio elástico (sólido, líquido o
gaseoso) para propagarse. Las partículas del medio oscilan alrededor de un punto fijo, por
lo que no existe transporte neto de materia a través del medio. Como en el caso de una
alfombra o un látigo cuyo extremo se sacude, la alfombra no se desplaza, sin embargo
una onda se propaga a través de ella. Dentro de las ondas mecánicas tenemos las ondas
elásticas, las ondas sonoras y las ondas de gravedad.
5.2 Reflexión y refracción de ondas
En los medios elásticos y homogéneos, las ondas se propagan en línea recta. Ahora bien,
la dirección de desplazamiento de los movimientos ondulatorios se modifica cuando la
onda llega a la frontera de separación entre dos medios diferentes. En estos casos se
producen los conocidos efectos de reflexión, refracción y dispersión de ondas.
5.3 Difracción e interferencia de ondas
En física, la difracción es un fenómeno característico de las ondas, éste se basa en el
curvado y esparcido de las ondas cuando encuentran un obstáculo o al atravesar una
rendija. La difracción ocurre en todo tipo de ondas, desde ondas sonoras, ondas en la
superficie de un fluido y ondas electromagnéticas como la luz y las ondas de radio.
También sucede cuando un grupo de ondas de tamaño finito se propaga; por ejemplo, por
causa de la difracción, un haz angosto de ondas de luz de un láser deben finalmente
divergir en un rayo más amplio a una cierta distancia del emisor.
Comparación entre los patrones de difracción e interferencia producidos por una doble
rendija (arriba) y cinco rendijas (abajo).El fenómeno de la difracción es un fenómeno de
tipo interferencial y como tal requiere la superposición de ondas coherentes entre sí.
Se produce cuando la longitud de onda es mayor que las dimensiones del objeto, por
tanto, los efectos de la difracción disminuyen hasta hacerse indetectables a medida que el
tamaño del objeto aumenta comparado con la longitud de onda.
En el espectro electromagnético los Rayos X tienen longitudes de onda similares a las
distancias interatómicas en la materia. Es posible por lo tanto utilizar la difracción de rayos
X como un método para explorar la naturaleza de la estructura cristalina. La difracción
producida por una estructura cristalina verifica la ley de Bragg.
Debido a la dualidad onda-corpúsculo característica de la mecánica cuántica es posible
observar la difracción de partículas como neutrones o electrones. En los inicios de la
mecánica cuántica este fue uno de los argumentos más claros a favor de la descripción
ondulatoria que realiza la mecánica cuántica de las partículas subatómicas.
Como curiosidad, esta técnica se utilizó para intentar descubrir la estructura del ADN, y
fue una de las pruebas experimentales de su estructura de doble hélice propuesta por
James Watson y Francis Crick en 1953.
5.4 Energía de una onda incidente y de las ondas transmitida y reflejada
Todo movimiento ondulatorio al incidir sobre la superficie que separa dos medios de
distintas propiedades mecánicas, ópticas, etc., en parte se refleja y en parte se transmite.
La velocidad de propagación de las ondas cambia al pasar de un medio a otro, pero no
cambia la frecuencia angular ω.
Supongamos un movimiento ondulatorio se propaga a lo largo de dos cuerdas, la cuerda
de la izquierda tiene una densidad lineal m1 y la cuerda de la derecha tiene una densidad
lineal m2.
[pic]
El movimiento ondulatorio transversal se propaga en ellas con velocidades
respectivamente de
[pic]
Siendo T la tensión de las cuerdas.
Ondas incidente, reflejada y trasmitida
Situamos el origen en el punto de unión de las cuerdas. A la izquierda del origen tenemos
una onda armónica incidente cuyo número de onda es k1 tal que k1v1=ω , que se
propaga de izquierda a derecha.
Ψ i=Ψ 0isen (k1x-ω t)
Y una onda reflejada que se propaga con la misma velocidad de derecha a izquierda
Ψ r=Ψ 0rsen (k1x+ω t)
En la segunda cuerda, tenemos una onda transmitida que se propaga de izquierda a
derecha y cuyo número de onda es k2 tal que k2v2=ω .
Ψ t=Ψ 0tsen (k2x-ω t)
A la izquierda del origen tenemos la superposición de dos movimientos ondulatorios, el
incidente más el reflejado, Ψ 1=Ψ i+Ψ r
A la derecha del origen solamente tenemos movimiento ondulatorio correspondiente a la
onda transmitida, Ψ 2=Ψ t
Relación entre las amplitudes de la onda incidente, reflejada y trasmitida
En el punto de discontinuidad o de unión de ambas cuerdas, el origen, x=0, el
desplazamiento vale Ψ 1=Ψ 2, es decir
Ψ 0isen (-ω t)+Ψ 0rsen (ω t)=Ψ 0tsen (-ω t)
Simplificando
-Ψ 0i+Ψ 0r=-Ψ 0t
Al estudiar las ondas transversales en una cuerda obtuvimos la expresión de la fuerza
vertical Fy en cualquier punto de la cuerda.
[pic]
En el origen se debe de cumplir que
[pic]
Derivando y simplificando se obtiene,
k1(Ψ 0i+Ψ 0r)=k2Ψ 0t
Desde el punto de vista matemático decimos, que en el punto de discontinuidad situado
en el origen, la función que describe el movimiento ondulatorio debe ser continua y
también lo debe ser su derivada primera. Una situación análoga la encontraremos en
Mecánica Cuántica al estudiar el escalón de potencial.
Tenemos dos ecuaciones, que nos permiten relacionar Ψ 0r y Ψ 0t en función de la
amplitud de la onda incidente Ψ 0i
[pic]
Expresando el número de onda k1 y k2 en términos de las velocidades de propagación
respectivas v1 y v2
[pic]
6. Electromagnetismo
6.1 Efectos cualitativos entre cuerpos cargados eléctricamente
6.2 Ley de Coulomb. Campo eléctrico
La Ley de Coulomb lleva su nombre en honor a Charles-Augustin de Coulomb, uno de sus
descubridores y el primero en publicarlo. No obstante, Henry Cavendish obtuvo la
expresión correcta de la ley, con mayor precisión que Coulomb, si bien esto no se supo
hasta después de su muerte.
El enunciado que describe la ley de Coulomb es el siguiente:
―La magnitud de cada una de las fuerzas eléctricas con que interactúan dos cargas
puntuales es directamente proporcional al producto de las cargas e inversamente
proporcional al cuadrado de la distancia que las separa.‖ Esta ley es válida sólo en
condiciones estacionarias, es decir, cuando no hay movimiento de las cargas o, como
aproximación, el movimiento se realiza a velocidades bajas y trayectorias rectilíneas
uniformes. Se le llama a esta Fuerza Electrostática. La parte Electro proviene de que se
trata de fuerzas eléctricas y estática debido a la ausencia de movimiento de las cargas.
En términos matemáticos, la magnitud de la fuerza que cada una de las dos cargas
puntuales y ejerce sobre la otra separadas por una distancia se expresa como:
Dadas dos cargas puntuales y separadas una distancia en el vacío, se atraen o repelen
entre sí con una fuerza cuya magnitud esta dada por:
La Ley de Coulomb se expresa mejor con magnitudes vectoriales:
donde es un vector unitario que va en la dirección de la recta que une las cargas, siendo
su sentido desde la carga que produce la fuerza hacia la carga que la experimenta.
El exponente (de la distancia: d) de la Ley de Coulomb es, hasta donde se sabe hoy en
día, exactamente 2. Experimentalmente se sabe que, si el exponente fuera de la forma ,
entonces.
Representación gráfica de la Ley de Coulomb para dos cargas del mismo signo.
Obsérvese que esto satisface la tercera de la ley de Newton debido a que implica que
fuerzas de igual magnitud actúan sobre y . La ley de Coulomb es una ecuación vectorial e
incluye el hecho de que la fuerza actúa a lo largo de la línea de unión entre las cargas.
Constante de Coulomb [editar]
La constante es la Constante de Coulomb y su valor para unidades SI es Nm /C .
A su vez la constante donde es la permitividad relativa, , y F/m es la permitividad del
medio en el vacío. Cuando el medio que rodea a las cargas no es el vacío hay que tener
en cuenta la constante dieléctrica y la permitividad del material.
6.3 Ley de Ohm y potencia eléctrica
La Ley de Ohm afirma que la corriente que circula por un conductor eléctrico es
directamente proporcional a la tensión e inversamente proporcional a la resistencia
siempre y cuando su temperatura se mantenga constante.
La ecuación matemática que describe esta relación es:
[pic]
Donde, I es la corriente que pasa a través del objeto en amperios, V es la diferencia de
potencial de las terminales del objeto en voltios, y R es la resistencia en ohmios (Ω).
Específicamente, la ley de Ohm dice que la R en esta relación es constante,
independientemente de la corriente.
Esta ley tiene el nombre del físico alemán Georg Ohm, que en un tratado publicado en
1827, halló valores de tensión y corriente que pasaba a través de unos circuitos eléctricos
simples que contenían una gran cantidad de cables. Él presentó una ecuación un poco
más compleja que la mencionada anteriormente para explicar sus resultados
experimentales. La ecuación de arriba es la forma moderna de la ley de Ohm.
6.4 Circuitos
6.4.1 Circuitos de resistencias
Es interesante considerar `circuitos' formados por varias resistencias, conectadas de
diversas maneras. Antes de entrar en mayores detalles respecto a estos circuitos,
describiremos algunas de las formas mas comunes de conectar resistencias entre sí, a la
vez que introducir el concepto de `resistencia equivalente'.
Consideremos un elemento resistivo; esto es, un conductor con conductividad finita g (un
conductor perfecto tiene conductividad infinita). Si, por esta resistencia, pasa una corriente
I, y la resistencia entre sus extremos a y b es Rab, entonces la diferencia de potencial Vab
entre los extremos es
Vab = RabI.
6.4.2 Circuitos de condensadores
En electricidad y electrónica, un condensador (del latín "condensare") es un dispositivo
que almacena energía eléctrica, es un componente pasivo. Está formado por un par de
superficies conductoras en situación de influencia total (esto es, que todas las líneas de
campo eléctrico que parten de una van a parar a la otra), generalmente en forma de
tablas, esferas o láminas, separadas por un material dieléctrico (siendo este utilizado en
un condensador para disminuir el campo eléctrico, ya que actúa como aislante) o por el
vacío, que, sometidas a una diferencia de potencial (d.d.p.) adquieren una determinada
carga eléctrica, positiva en una de las placas y negativa en la otra (siendo nula la carga
total almacenada).
La carga almacenada en una de las placas es proporcional a la diferencia de potencial
entre esta placa y la otra, siendo la constante de proporcionalidad la llamada capacidad o
capacitancia. En el Sistema internacional de unidades se mide en Faradios (F), siendo 1
faradio la capacidad de un condensador en el que, sometidas sus armaduras a una d.d.p.
de 1 voltio, éstas adquieren una carga eléctrica de 1 culombio.
La capacidad de 1 faradio es mucho más grande que la de la mayoría de los
condensadores, por lo que en la práctica se suele indicar la capacidad en micro- µF = 10-
6, nano- nF = 10-9 o pico- pF = 10-12 -faradios. Los condensadores obtenidos a partir de
supercondensadores (EDLC) son la excepción. Están hechos de carbón activado para
conseguir una gran área relativa y tienen una separación molecular entre las "placas". Así
se consiguen capacidades del orden de cientos o miles de faradios. Uno de estos
condensadores se incorpora en el reloj Kinetic de Seiko, con una capacidad de 1/3 de
Faradio, haciendo innecesaria la pila. También se está utilizando en los prototipos de
automóviles eléctricos.
El valor de la capacidad de un condensador viene definido por la siguiente fórmula:
[pic]
en donde:
C: Capacitancia
Q1: Carga eléctrica almacenada en la placa 1.
V1 − V2: Diferencia de potencial entre la placa 1 y la 2.
Nótese que en la definición de capacidad es indiferente que se considere la carga de la
placa positiva o la de la negativa, ya que
[pic]
aunque por convenio se suele considerar la carga de la placa positiva.
En cuanto al aspecto constructivo, tanto la forma de las placas o armaduras como la
naturaleza del material dieléctrico son sumamente variables. Existen condensadores
formados por placas, usualmente de aluminio, separadas por aire, materiales cerámicos,
mica, poliéster, papel o por una capa de óxido de aluminio obtenido por medio de la
electrólisis
6.5 Campo magnético
El campo magnético es una región del espacio en la cual una carga eléctrica puntual de
valor que se desplaza a una velocidad [pic], sufre los efectos de una fuerza que es
perpendicular y proporcional tanto a la velocidad como al campo. Así, dicha carga
percibirá una fuerza descrita con la siguiente igualdad.
[pic]
donde F es la fuerza, v es la velocidad y B el campo magnético, también llamado
inducción magnética y densidad de flujo magnético. (Nótese que tanto F como v y B son
magnitudes vectoriales y el producto vectorial tiene como resultante un vector
perpendicular tanto a v como a B). El módulo de la fuerza resultante será
[pic]
La existencia de un campo magnético se pone de relieve gracias a la propiedad localizada
en el espacio de orientar un magnetómetro (laminilla de acero imantado que puede girar
libremente). La aguja de una brújula, que evidencia la existencia del campo magnético
terrestre, puede ser considerada un magnetómetro.
6.6 Inducción electro magnética
La inducción electromagnética es el fenómeno que origina la producción de una fuerza
electromotriz (f.e.m. o voltaje) en un medio o cuerpo expuesto a un campo magnético
variable, o bien en un medio móvil respecto a un campo magnético estático. Es así que,
cuando dicho cuerpo es un conductor, se produce una corriente inducida. Este fenómeno
fue descubierto por Michael Faraday quien lo expresó indicando que la magnitud del
voltaje inducido es proporcional a la variación del flujo magnético (Ley de Faraday).
Por otra parte, Heinrich Lenz comprobó que la corriente debida a la f.e.m. inducida se
opone al cambio de flujo magnético, de forma tal que la corriente tiende a mantener el
flujo. Esto es válido tanto para el caso en que la intensidad del flujo varíe, o que el cuerpo
conductor se mueva respecto de él.
6.7 Relación entre campo magnético y eléctrico
ADEMÁS de sus notables descubrimientos experimentales Faraday hizo una
contribución teórica que ha tenido una gran influencia en el desarrollo de la física hasta la
actualidad: el concepto de línea de fuerza y asociado a éste, el de campo.
Oersted había escrito que el efecto magnético de una corriente eléctrica que circula por
un alambre conductor se esparce en el espacio fuera del alambre. De esta forma la aguja
de una brújula lo podrá sentir y girar debido a la fuerza que experimenta.
Por otro lado, ya desde tiempos de Gilbert se habían hecho experimentos como el
mencionado en el capítulo IV, el de una barra magnética con limaduras de hierro, donde
se puede apreciar que las limaduras se orientan a lo largo de ciertas líneas.
Asimismo, desde la época de Newton se trató de encontrar el mecanismo por medio del
cual dos partículas separadas cierta distancia experimentan una fuerza, por ejemplo, la de
atracción gravitacional. Entre los científicos de esa época y hasta tiempos de Faraday se
estableció la idea de que existía la llamada acción a distancia. Esto significa que las dos
partículas experimentan una interacción instantánea. Así, por ejemplo, si una de las
partículas se mueve y cambia la distancia entre ellas, la fuerza cambia instantáneamente
al nuevo valor dado en términos de la nueva distancia entre ellas.
Antes de Faraday la idea de las líneas de fuerza se había tratado como un artificio
matemático. Estas líneas de fuerza ya se habían definido de la siguiente forma:
supongamos que hay una fuerza entre dos tipos de partículas, por ejemplo, eléctricas.
Sabemos que si son de cargas iguales se repelen, mientras que si sus cargas son
opuestas se atraen. Consideremos una partícula eléctrica positiva (Figura 8(a)), que
llamaremos 1. Tomemos ahora otra partícula, la 2, también positiva, pero de carga mucho
menor que la 1. A esta partícula 2 la llamaremos de prueba, pues con ella veremos qué
pasa en el espacio alrededor de la partícula 1. La fuerza entre ellas se muestra en la
figura. Ahora dejemos que la partícula de prueba se mueva un poco. Debido a que es
repelida por la 1 se alejará y llegará a una nueva posición que se muestra en la figura
8(b). Si se vuelve a dejar que la partícula de prueba se mueva un poco llegará a otra
posición, y así sucesivamente. La trayectoria que sigue la partícula de prueba al moverse
en la forma descrita es una línea de fuerza. Nos damos cuenta de que la fuerza que
experimenta la partícula de prueba es siempre tangente a la línea de fuerza. Ahora
podemos repetir la experiencia colocando la partícula de prueba en otro lugar y así formar
la línea de fuerza correspondiente. De esta manera podemos llenar todo el espacio que
rodea a la partícula 1 de líneas de fuerza, y nos percatamos de que todas ellas salen de la
partícula 1.
Si la partícula 1 fuera de carga negativa, las líneas de fuerza tendrían sentido opuesto a
las anteriores, pues la partícula 1 atraería a la 2.
De esta forma se pueden encontrar las líneas de fuerza de cualquier conjunto de cargas
eléctricas. En general éstas son líneas curvas que empiezan en cargas positivas y
terminan en cargas negativas.
[pic]
Figura 8. Forma en que se define la línea de fuerza del campo eléctrico.
En cada caso la fuerza que experimentaría una partícula de prueba de carga positiva que
se colocara en cualquier punto del espacio tendría una dirección que sería tangente a la
línea de fuerza en ese punto.
Podemos por tanto afirmar que para cualquier distribución de carga la(s) partícula(s)
crea(n) una situación en el espacio a su alrededor tal, que si se coloca una partícula de
prueba en cualquier punto, la fuerza que experimenta la partícula de prueba es tangente a
la línea de fuerza. Se dice que cualquier distribución de carga eléctrica crea a su
alrededor una situación que se llama campo eléctrico.
De manera completamente análoga se pueden definir las líneas de fuerza magnéticas. Al
colocar una limadura de hierro ésta se magnetiza y se orienta en una dirección tangente a
la línea de fuerza. Las limaduras de hierro desempeñan el papel de sondas de prueba
para investigar qué situación magnética se crea alrededor de los agentes que crean el
efecto magnético. En el capítulo anterior hablamos del efecto magnético que se produce
en el espacio. Este efecto es el campo magnético.
Al cambiar la disposición de las cargas eléctricas, imanes o corrientes eléctricas, es claro
que las líneas de fuerza que producen en el espacio a su alrededor también cambian. El
efecto que se produce en el espacio constituye un campo. Así tenemos tanto un campo
eléctrico como uno magnético. Por tanto, un campo es una situación que un conjunto de
cargas eléctricas o imanes y corrientes eléctricas producen en el espacio que los rodea.
Fue Faraday quien proporcionó una realidad física a la idea de campo, y basándose en
ello se dio cuenta de que si se cambia la posición física de cualquier partícula eléctrica en
una distribución, entonces el campo eléctrico que rodea a ésta también deberá cambiar y
por tanto, al colocar una partícula de prueba en cualquier punto, la fuerza que
experimenta cambiará. Sin embargo, a diferencia de la acción a distancia, estos cambios
tardan cierto intervalo de tiempo en ocurrir, no son instantáneos. Otro ejemplo es cuando
una corriente eléctrica que circula por un alambre cambia abruptamente. Faraday se
preguntó si el cambio en el campo magnético producido ocurría instantáneamente o si
tardaba en ocurrir, pero no pudo medir estos intervalos de tiempo ya que en su época no
se disponía del instrumental adecuado. (Incluso hizo varios intentos infructuosos por
diseñar un instrumento que le sirviera a este propósito al final de su vida.) Sin embargo,
no tuvo la menor duda de que en efecto transcurría un intervalo finito de tiempo en el que
se propagaba el cambio. Así, Faraday argumentó que la idea de acción a distancia no
podía ser correcta.
Hemos de mencionar que no fue sino hasta el año de 1887 cuando se midió en un
laboratorio por primera vez, y se comprobó que este tipo de propagación ocurre en un
tiempo finito. El experimento fue hecho por Heinrich Hertz y lo describiremos más
adelante.
Faraday dio otro argumento para rechazar la idea de acción a distancia. La fuerza entre
dos partículas eléctricamente cargadas no solamente depende de la distancia entre ellas
sino también de lo que haya entre ellas. Si las partículas están en el vacío, la fuerza
tendrá cierto valor, pero si hay alguna sustancia entre ellas el valor de la fuerza cambiará.
Faraday realizó varios experimentos para confirmar sus afirmaciones. Escribió que el
medio que se encuentre entre las partículas causa una diferencia en la transmisión de la
acción eléctrica, lo que ocasiona que no pueda haber acción a distancia. Por lo tanto, la
acción entre las partículas se debe transmitir, punto a punto, a través del medio
circundante.
Fue en 1837 que Faraday propuso la idea de que la línea de fuerza tenía realidad física.
Con ello demostró tener una gran intuición física para entender los fenómenos
electromagnéticos. Hay que mencionar que debido a que no tenía preparación
matemática adecuada, por no haber asistido a una escuela de enseñanza superior,
Faraday no pudo desarrollar la teoría matemática del campo electromagnético, hecho que
tuvo que esperar hasta Maxwell. Sin embargo, tuvo el genio extraordinario para describir
esta idea de manera gráfica.
6.8 Inducción de campos
El campo magnético es una región del espacio en la cual una carga eléctrica puntual de
valor que se desplaza a una velocidad [pic], sufre los efectos de una fuerza que es
perpendicular y proporcional tanto a la velocidad como al campo. Así, dicha carga
percibirá una fuerza descrita con la siguiente igualdad.
[pic]
donde F es la fuerza, v es la velocidad y B el campo magnético, también llamado
inducción magnética y densidad de flujo magnético. (Nótese que tanto F como v y B son
magnitudes vectoriales y el producto vectorial tiene como resultante un vector
perpendicular tanto a v como a B). El módulo de la fuerza resultante será
[pic]
La existencia de un campo magnético se pone de relieve gracias a la propiedad localizada
en el espacio de orientar un magnetómetro (laminilla de acero imantado que puede girar
libremente). La aguja de una brújula, que evidencia la existencia del campo magnético
terrestre, puede ser considerada un magnetómetro
6.9 La luz como onda electromagnética
Se llama luz (del latín lux, lucis) a la radiación electromagnética que puede ser percibida
por el ojo humano. En física, el término luz se usa en un sentido más amplio e incluye el
rango entero de radiación conocido como el espectro electromagnético, mientras que la
expresión luz visible denota la radiación en el espectro visible.
La óptica es la rama de la física que estudia el comportamiento de la luz, sus
características y sus manifestaciones
6.10 Espectro electro magnético
Se denomina espectro electromagnético a la distribución energética del conjunto de las
ondas electromagnéticas. Referido a un objeto se denomina espectro electromagnético o
simplemente espectro a la radiación electromagnética que emite (espectro de emisión) o
absorbe (espectro de absorción) una sustancia. Dicha radiación sirve para identificar la
sustancia de manera análoga a una huella dactilar. Los espectros se pueden observar
mediante espectroscopios que, además de permitir observar el espectro, permiten realizar
medidas sobre éste, como la longitud de onda, la frecuencia y la intensidad de la
radiación.
Diagrama del espectro electromagnético, mostrando el tipo, longitud de onda con
ejemplos, frecuencia y temperatura de emisión de cuerpo negro.El espectro
electromagnético se extiende desde la radiación de menor longitud de onda, como los
rayos gamma y los rayos X, pasando por la luz ultravioleta, la luz visible y los rayos
infrarrojos, hasta las ondas electromagnéticas de mayor longitud de onda, como son las
ondas de radio. Se cree que el límite para la longitud de onda más pequeña posible es la
longitud de Planck mientras que el límite máximo sería el tamaño del Universo (véase
Cosmología física) aunque formalmente el espectro electromagnético es infinito y
continuo.
6.11 Leyes de Ampere –Maxwell
En física del magnetismo, la ley de Ampère, descubierta por André-Marie Ampère en
1826,[1] relaciona un campo magnético estático con la causa que la produce, es decir,
una corriente eléctrica estacionaria. James Clerk Maxwell la corrigió posteriormente y
ahora es una de las ecuaciones de Maxwell, formando parte del electromagnetismo de la
física clásica.
Ley de Ampère original
En su forma original, la Ley de Ampère relaciona el campo magnético con la corriente
eléctrica que lo genera.
La Ley se puede escribir de dos maneras, la "forma integral" y la "forma diferencial ".
Ambas formas son equivalentes, y se relacionan por el teorema de Stokes.
[editar] Forma integral
Dada una superficie abierta S por la que atraviesa una corriente eléctrica I, y dada la
curva C, curva contorno de la superficie S, la forma original de la ley de Ampère para
medios materiales es:
[pic]
donde
[pic]es la intensidad del campo magnético,
[pic]es la densidad de corriente eléctrica,
[pic]es la corriente encerrada en la curva C,
Y se lee: La circulación del campo [pic]a lo largo de la curva C es igual al flujo de la
densidad de corriente sobre la superficie abierta S, de la cual C es el contorno.
En presencia de un material magnético en el medio, aparecen campos de magnetización,
propios del material, análogamente a los campos de polarización que aparecen en el caso
electrostático en presencia de un material dieléctrico en un campo eléctrico.
Definición:
[pic]
[pic]
[pic]
donde
[pic]es la densidad de flujo magnético,
[pic]es la permeabilidad magnética del vacío,
[pic]es la permeabilidad magnética del medio material,
Luego, [pic]es la permeabilidad magnética total.
[pic]es el vector magnetización del material debido al campo magnético.
[pic]es la susceptibilidad magnética del material.
Un caso particular de interés es cuando el medio es el vacío ([pic] o sea, [pic]):
[pic]
[editar] Forma diferencial
A partir del teorema de Stokes, esta ley también se puede expresar de forma diferencial:
[pic]
donde
[pic]es el operador rotacional
[pic]es la densidad de corriente que atraviesa el conductor.
6.12 Leyes de Faraday y Henry
En esta experiencia se demuestra la aparición de una corriente eléctrica en una espira,
cuando el campo magnético que atraviesa la superficie limitada por la misma varía con el
tiempo. A este proceso se le denomina inducción electromagnética y es el principio
fundamental del generador eléctrico, del transformador y de otros muchos dispositivos de
uso cotidiano. Fueron Michael Faraday, en Inglaterra, y Joseph Henry, en los Estados
Unidos, los que a principios de la década de 1830, descubrieron, independientemente,
este fenómeno físico.
Para realizar la experiencia de inducción electromagnética, se utilizará una bobina con un
gran número de espiras, conectada, mediante dos cables, a un amperímetro, así como un
imán.
En primer lugar, se ajusta el amperímetro, de modo que el cero quede en el centro de su
escala. Se observa, que cuando la corriente va en un determinado sentido, la aguja del
amperímetro se desplaza, por ejemplo, hacia la izquierda del cero, mientras que, si la
corriente cambia de sentido, la aguja se desplaza hacia la derecha. Para generar una
fuerza electromotriz inducida, y por tanto, una corriente inducida, se aleja o se acerca el
imán introduciéndolo y sacándolo de la bobina. Al acercar el imán, la aguja del
amperímetro se desplaza hacia la izquierda, mientras que al alejarlo lo hace hacia la
derecha. Sin embargo, no existe corriente inducida si el imán está en reposo respecto de
la bobina. Puede verse en este caso, que la aguja del amperímetro no se mueve. Si se
cambia la orientación del imán, y por tanto, la de su campo magnético, se produce el
mismo fenómeno, pero ahora, el sentido de la corriente inducida es distinto que en el caso
anterior. También se observa cómo si el imán se acerca, o se aleja, más rápidamente, la
corriente inducida es mayor.
Se puede también generar una corriente en la bobina, manteniendo el imán en reposo y
moviendo únicamente la bobina respecto al imán, alejándola o acercándola. Al igual que
en los casos anteriores, cuando no hay movimiento relativo entre la bobina y el imán, no
existe corriente inducida, y por lo tanto, la aguja del amperímetro no se mueve.
El principio que explica la existencia de corrientes inducidas en la bobina cuando el flujo
electromagnético está variando se denomina ley de Faraday-Henry. Dicha ley establece
que la fuerza electromotriz, e, depende de la rapidez con la que varíe el flujo magnético, .
7. Fluidos
7.1 Fluidos en reposo
Fluido: Se dice del cuerpo cuyas moléculas tienen entre sí poca o ninguna coherencia.
Los fluidos pueden ser líquidos (como agua, aceite, glicerina, etc.) o gases (como aire,
oxígeno, nitrógeno, etc.)
Cuando un líquido se encuentra en un recipiente, tiende a tomar la forma del contenedor,
cubriendo el fondo y sus lados, la superficie superior, que esta en contacto con la
atmósfera mantiene un nivel uniforme, a medida que el recipiente se va inclinando, el
líquido tiende a derramarse; la rapidez con que se derrama depende de una propiedad
conocida como viscosidad, que posteriormente veremos
En cambio un gas encerado en un contenedor, tiende a expandirse y llenar
completamente el recipiente que le contiene. Si este se abre, el gas tiende a seguir
expandiéndose y escapar del contenedor.
Además de estas diferencias hay otra muy importante que nos concierne
Los líquidos son sólo ligeramente compresibles
Los gases son fácilmente compresibles.
La compresibilidad se refiere al cambio de volumen cuando hay una variación de presión.
las máquinas accionadas hidráulicamente se dividen en dos grandes grupos
hidrodinámica e hidrostática.
La hidrodinámica es la ciencia de los líquidos en movimiento y la hidrostática la de los
líquidos en reposo que se basa en la Ley de Pascal.
7.1.1 Presión atmosférica
La presión atmosférica es la presión ejercida por el aire atmosférico en cualquier punto de
la atmósfera. Normalmente se refiere a la presión atmosférica terrestre, pero el término es
generalizable a la atmósfera de cualquier planeta o satélite.
La presión atmosférica en un punto representa el peso de una columna de aire de área de
sección recta unitaria que se extiende desde ese punto hasta el límite superior de la
atmósfera. Como la densidad del aire disminuye conforme aumenta la altura, no se puede
calcular ese peso a menos que seamos capaces de expresar la variación de la densidad
del aire ρ en función de la altitud z o de la presión p. Por ello, no resulta fácil hacer un
cálculo exacto de la presión atmosférica sobre la superficie terrestre; por el contrario, es
muy fácil medirla.
La presión atmosférica en un lugar determinado experimenta variaciones asociadas con
los cambios meteorológicos. Por otra parte, en un lugar determinado, la presión
atmosférica disminuye con la altitud, como se ha dicho. La presión atmosférica decrece a
razón de 1 mmHg o Torr por cada 10 m de elevación en los niveles próximos al del mar.
En la práctica se utilizan unos instrumentos, llamados altímetros, que son simples
barómetros aneroides calibrados en alturas; estos instrumentos no son muy precisos.
La presión atmosférica normalizada, 1 atmósfera, fue definida como la presión
atmosférica media al nivel del mar que se adoptó como exactamente 101 325 Pa o 760
Torr. Sin embargo, a partir de 1982, la IUPAC recomendó que se trata de especificar las
propiedades físicas de las sustancias "el estándar de presión" debía definirse como
exactamente 100 kPa o (≈750,062 Torr). Aparte de ser un número redondo, este cambio
tiene una ventaja práctica porque 100 kPa equivalen a una altitud aproximada de 112
metros, que está cercana al promedio de 194 m de la población mundial.[1]
7.1.2 Principio de Pascal
En física, el principio de Pascal o ley de Pascal, es una ley enunciada por el físico y
matemático francés Blaise Pascal (1623-1662) que se resume en la frase: la presión
ejercida en cualquier parte de un fluido incompresible y en equilibrio dentro en un
recipiente de paredes indeformables, se transmite con igual intensidad en todas las
direcciones y en todos los puntos del fluido
El principio de Pascal puede comprobarse utilizando una esfera hueca, perforada en
diferentes lugares y provista de un émbolo. Al llenar la esfera con agua y ejercer presión
sobre ella mediante el émbolo, se observa que el agua sale por todos los agujeros con la
misma velocidad y por lo tanto con la misma presión.
También podemos ver aplicaciones del principio de Pascal en las prensas hidráulicas, en
los elevadores hidráulicos y en los frenos hidráulicos.
7.1.3 Principio de Arquímedes
El principio de Arquímedes es un principio físico que afirma que un cuerpo total o
parcialmente sumergido en un fluido en reposo, será empujado con una fuerza vertical
ascendente igual al peso del fluido desplazado por dicho cuerpo. Esta fuerza recibe el
nombre de empuje hidrostático o de Arquímedes, y se mide en newtons (en el SI). El
principio de Arquímedes se formula así:
[pic]
Donde ρf es la densidad del fluido, V el volumen del cuerpo sumergido y g la aceleración
de la gravedad, de este modo, el empuje depende de la densidad del fluido, del volumen
del cuerpo y de la gravedad existente en ese lugar. El empuje actúa siempre
verticalmente hacia arriba y está aplicado en el centro de gravedad del fluido desalojado
por el cuerpo; este punto recibe el nombre de centro de carena.
7.1.4 Presión hidrostática
Un fluido pesa y ejerce presión sobre las paredes sobre el fondo del recipiente que lo
contiene y sobre la superficie de cualquier objeto sumergido en él. Esta presión, llamada
presión hidrostática, provoca, en fluidos en reposo, una fuerza perpendicular a las
paredes del recipiente o a la superficie del objeto sumergido sin importar la orientación
que adopten las caras. Si el líquido fluyera, las fuerzas resultantes de las presiones ya no
serían necesariamente perpendiculares a las superficies. Esta presión depende de la
densidad del líquido en cuestión y de la altura a la que esté sumergido el cuerpo y se
calcula mediante la siguiente expresión:
[pic]
Donde, usando unidades del SI,
• [pic]es la presión hidrostática (en pascales);
• [pic]es la densidad del líquido (en kilogramos sobre metro cúbico);
• [pic]es la aceleración de la gravedad (en metros sobre segundo al cuadrado);
• [pic]es la altura del fluido (en metros). Un liquido en equilibrio ejerce fuerzas
perpendiculares sobre cualquier superficie sumergida en su interior
• [pic]es la presión atmosférica
7.1.5 Tensión superficial y capilaridad
En física se denomina tensión superficial de un líquido a la cantidad de energía necesaria
para aumentar su superficie por unidad de área.[1] Esta definición implica que el líquido
tiene una resistencia para aumentar su superficie. Este efecto permite a algunos insectos,
como el zapatero (Gerris lacustris), desplazarse por la superficie del agua sin hundirse. La
tensión superficial (una manifestación de las fuerzas intermoleculares en los líquidos),
junto a las fuerzas que se dan entre los líquidos y las superficies sólidas que entran en
contacto con ellos, da lugar a la capilaridad.Fuerza que actúa tangencialmente por unidad
de longitud en el borde de una superficie libre de un líquido en equilibrio y que tiende a
contraer dicha superficie. en pocas palabras la elevación o depresión de la superficie de
un liquido en la zona de contacto con un solido.
7.2 Fluidos en movimiento
DINÁMICA DE FLUIDOS O HIDRODINÁMICA
Esta rama de la mecánica de fluidos se ocupa de las leyes de los fluidos en movimiento;
estas leyes son enormemente complejas, y aunque la hidrodinámica tiene una
importancia práctica mayor que la hidrostática, sólo podemos tratar aquí algunos
conceptos básicos.
El interéspor la dinámica de fluidos se remonta a las aplicaciones más antiguas de los
fluidos en ingeniería. Arquímedes realizó una de las primeras contribuciones con la
invención, que se le atribuye tradicionalmente, del tornillo sin fin. La acción impulsora del
tornillo de Arquímedes es similar a la de la pieza semejante a un sacacorchos que tienen
las picadoras de carne manuales. Los romanos desarrollaron otras máquinas y
mecanismos hidráulicos; no sólo empleaban el tornillo de Arquímedes para bombear agua
en agricultura y minería, sino que también construyeron extensos sistemas de
acueductos, algunos de los cuales todavía funcionan. En el siglo I a.C., el arquitecto e
ingeniero romano Vitrubio inventó la rueda hidráulica horizontal, con lo que revolucionó la
técnica de moler grano.
A pesar de estas tempranas aplicaciones de la dinámica de fluidos, apenas se
comprendía la teoría básica, por lo que su desarrollo se vio frenado. Después de
Arquímedes pasaron más de 1.800 años antes de que se produjera el siguiente avance
científico significativo, debido al matemático y físico italiano Evangelista Torricelli, que
inventó el barómetro en 1643 y formuló el teorema de Torricelli, que relaciona la velocidad
de salida de un líquido a través de un orificio de un recipiente, con la altura del líquido
situado por encima de dicho agujero. El siguiente gran avance en el desarrollo de la
mecánica de fluidos tuvo que esperar a la formulación de las leyes del movimiento por el
matemático y físico inglés Isaac Newton. Estas leyes fueron aplicadas por primera vez a
los fluidos por el matemático suizo Leonhard Euler, quien dedujo las ecuaciones básicas
para un fluido sin rozamiento (no viscoso).
Euler fue el primero en reconocer que las leyes dinámicas para los fluidos sólo pueden
expresarse de forma relativamente sencilla si se supone que el fluido es incompresible e
ideal, es decir, si se pueden despreciar los efectos del rozamiento y la viscosidad. Sin
embargo, como esto nunca es así en el caso de los fluidos reales en movimiento, para
Gareth Williams los resultados de dicho análisis sólo pueden servir como estimación para
flujos en los que los efectos de la viscosidad son pequeños.
7.2.1 Ecuación de continuidad
En física, una ecuación de continuidad expresa una ley de conservación de forma
matemática, ya sea de forma integral como de forma diferencial.
Esta expresión expresa la idea de que la masa de fluido que entra por el extremo de un
tubo debe salir por el otro extremo.
En un fluido en movimiento, las moléculas poseen una velocidad determinada, de forma
que para conocer el movimiento del fluido hace falta determinar en cada instante su
correspondiente campo de velocidades.
Tratamos una pequeña masa de fluido que se mueve en un tubo. En la posición 2, con
una sección de valor A2, el fluido tiene una rapidez V2 y una densidad ρ2. Corriente abajo
en la posición 1 las cantidades son A1, V1 y ρ1.
ρ1∙A1∙V1 = ρ2∙A2∙V2
Cuando ρ1 = ρ2, que es el caso general tratándose del agua, se tiene:
O de otra forma:
Q1 = Q2 (el caudal que entra es igual al que sale).
7.2.2 Ecuación de Bernoulli
Para el teorema matemático enunciado por Jakob Bernoulli, véase Teorema de Bernoulli.
[pic]
[pic]
Esquema del Principio de Bernoulli.
El principio de Bernoulli, también denominado ecuación de Bernoulli o Trinomio de
Bernoulli, describe el comportamiento de un fluido moviéndose a lo largo de una línea de
corriente. Fue expuesto por Daniel Bernoulli en su obra Hidrodinámica (1738) y expresa
que en un fluido ideal (sin viscosidad ni rozamiento) en régimen de circulación por un
conducto cerrado, la energía que posee el fluido permanece constante a lo largo de su
recorrido. La energía de un fluido en cualquier momento consta de tres componentes:
1. Cinética: es la energía debida a la velocidad que posea el fluido.
2. Potencial gravitacional: es la energía debido a la altitud que un fluido posea.
3. Energía de flujo: es la energía que un fluido contiene debido a la presión que posee.
La siguiente ecuación conocida como "Ecuación de Bernoulli" (Trinomio de Bernoulli)
consta de estos mismos términos.
[pic]
donde:
• V = velocidad del fluido en la sección considerada.
• g = aceleración gravitatoria
• z = altura en la dirección de la gravedad desde una cota de referencia.
• P = presión a lo largo de la línea de corriente.
• ρ = densidad del fluido.
Para aplicar la ecuación se deben realizar los siguientes supuestos:
• Viscosidad (fricción interna) = 0 Es decir, se considera que la línea de corriente sobre
la cual se aplica se encuentra en una zona 'no viscosa' del fluido.
• Caudal constante
• Flujo incompresible, donde ρ es constante.
• La ecuación se aplica a lo largo de una línea de corriente o en un flujo irrotacional
Aunque el nombre de la ecuación se debe a Bernoulli, la forma arriba expuesta fue
presentada en primer lugar por Leonhard Euler.
Un ejemplo de aplicación del principio lo encontramos en el flujo de agua en tubería.
7.2.3 Viscosidad
La viscosidad es la oposición de un fluido a las deformaciones tangenciales. Un fluido que
no tiene viscosidad se llama fluido ideal. En realidad todos los fluidos conocidos presentan
algo de viscosidad, siendo el modelo de viscosidad nula una aproximación bastante
buena para ciertas aplicaciones.
Explicación de la viscosidad
Imaginemos un bloque sólido (no fluido) sometido a una fuerza tangencial (por ejemplo:
una goma de borrar sobre la que se sitúa la palma de la mano que empuja en dirección
paralela a la mesa.) En este caso (a), el material sólido opone una resistencia a la fuerza
aplicada, pero se deforma (b), tanto más cuanto menor sea su rigidez.
Si imaginamos que la goma de borrar está formada por delgadas capas unas sobre otras,
el resultado de la deformación es el desplazamiento relativo de unas capas respecto de
las adyacentes, tal como muestra la figura (c).
[pic]
Deformación de un sólido por la aplicación de una fuerza tangencial.
En los líquidos, el pequeño rozamiento existente entre capas adyacentes se denomina
viscosidad. Es su pequeña magnitud la que le confiere al fluido sus peculiares
características; así, por ejemplo, si arrastramos la superficie de un líquido con la palma de
la mano como hacíamos con la goma de borrar, las capas inferiores no se moverán o lo
harán mucho más lentamente que la superficie ya que son arrastradas por efecto de la
pequeña resistencia tangencial, mientras que las capas superiores fluyen con facilidad.
Igualmente, si revolvemos con una cuchara un recipiente grande con agua en el que
hemos depositado pequeños trozos de corcho, observaremos que al revolver en el centro
también se mueve la periferia y al revolver en la periferia también dan vueltas los trocitos
de corcho del centro; de nuevo, las capas cilíndricas de agua se mueven por efecto de la
viscosidad, disminuyendo su velocidad a medida que nos alejamos de la cuchara..
[pic]
[pic]
Ejemplo de la viscosidad de la leche y el agua. Líquidos con altas viscosidades no forman
salpicaduras.
Cabe señalar que la viscosidad sólo se manifiesta en fluidos en movimiento, ya que
cuando el fluido está en reposo adopta una forma tal en la que no actúan las fuerzas
tangenciales que no puede resistir. Es por ello por lo que llenado un recipiente con un
líquido, la superficie del mismo permanece plana, es decir, perpendicular a la única fuerza
que actúa en ese momento, la gravedad, sin existir por tanto componente tangencial
alguna.
Si la viscosidad fuera muy grande, el rozamiento entre capas adyacentes lo sería también,
lo que significa que éstas no podrían moverse unas respecto de otras o lo harían muy
poco, es decir, estaríamos ante un sólido. Si por el contrario la viscosidad fuera cero,
estaríamos ante un superfluido que presenta propiedades notables como escapar de los
recipientes aunque no estén llenos (véase Helio-II).
La viscosidad es característica de todos los fluidos, tanto líquidos como gases, si bien, en
este último caso su efecto suele ser despreciable, están más cerca de ser fluidos ideales.
[editar] Medidas de la viscosidad
La viscosidad de un fluido puede medirse por un parámetro dependiente de la
temperatura llamado coeficiente de viscosidad o simplemente viscosidad:
• Coeficiente de viscosidad dinámico, designado como η o μ. En unidades en el SI: [µ] =
[Pa·s] = [kg·m-1·s-1] ; otras unidades:
1 Poise = 1 [P] = 10-1 [Pa·s] = [10-1 kg·s-1·m-1]
Ver unidades de viscosidad para tener una idea más exacta del Poise [P].
• Coeficiente de viscosidad cinemático, designado como ν, y que resulta ser igual al
cociente del coeficiente de viscosidad dinámica entre la densidad ν = μ/ρ. (En unidades en
el SI: [ν] = [m2.s-1]. En el sistema cegesimal es el Stoke(St).
|Gas (a 0 °C):[pic] |Viscosidad dinámica |
| |[μPa·s] |
| |[pic] |
|Hidrógeno |8,4 |
|Aire |17,4 |
|Xenón |21,2 |
|Agua (20ºC) |1002 |
8. Óptica
8.1 Reflexión y refracción de la luz
LA HIPÓTESIS de los rayos rectos luminosos no es la única hipótesis de la óptica
geométrica. Para explicar el fenómeno de la reflexión de la luz (Figura 4) es necesario
suponer que la dirección de los rayos luminosos cambia en algunas circunstancias. Una
imagen en un espejo se ve como si el objeto estuviera atrás, y no frente a éste. La óptica
geométrica explica este familiar fenómeno suponiendo que los rayos luminosos cambian
de dirección al llegar al espejo. La forma precisa en que ocurre este cambio se conoce
como ley de la reflexión de la luz. Es una ley muy sencilla: los rayos incidente y reflejado
hacen ángulos iguales con el espejo; o con la perpendicular al espejo, que es como
suelen medirse estos ángulos (Figura 10). Esta ley, por cierto, también se puede deducir
aplicando la ley de variación del tamaño aparente con la distancia para explicar los
tamaños aparentes de un objeto y de su imagen en un espejo plano. O, dicho de otra
forma, si vemos nuestra imagen en un espejo plano del tamaño que la vemos es porque
los rayos incidente y reflejado forman ángulos iguales con el espejo.
[pic]
Figura 10. La ley de la reflexión de la luz: el ángulo de incidencia, i, y el de reflexión, r,
de un rayo luminoso sobre una superficie son iguales; esto es i = r.
La ley de la refracción de la luz: el seno del ángulo de incidencia, sen i, y el seno del
ángulo de refracción, sen r', de un rayo luminoso que atraviesa la superficie de separación
de dos medios transparentes están en las misma proporción para cualquier valor del
ángulo i; esto es, sen i /sen r' = n. Si la luz pasa de aire al agua, sen i /sen r' = 4/3.
Un cuerpo parcialmente sumergido en agua se ve chueco; como si se doblara al entrar
al agua. Este fenómeno se llama refracción. Además del agua se observa en muchos
otros medios transparentes, como el vidrio, llamados refringentes. Era uno de los
problemas ópticos pendientes de solución todavía hacia el siglo XIII (Figura 4). Los
fenómenos de refracción se incorporan a la óptica geométrica simplemente suponiendo
que los rayos luminosos cambian de dirección no sólo al reflejarse sino también al pasar
de un medio refringente a otro; por ejemplo, del agua al aire, o del agua al vidrio, o del
vidrio al aire. Un experimento sencillo que demuestra este cambio de dirección se muestra
en la figura 11. Una moneda pequeña en el fondo de una taza vacía está apenas oculta
por el filo de la taza en la figura 11 (a). Llenando lentamente la taza con agua la moneda
aparece poco a poco, hasta observarse por completo, en la figura 11(b). Los rayos
luminosos emitidos por la moneda que llegan al ojo debido a que son refractados en la
superficie del agua se muestran en esa figura; la moneda se ve en la dirección de estos
rayos. El experimento muestra también que los rayos refractados están más cerca de la
superficie en el medio menos denso; el aire en la figura 11(b).
[pic]
Figura 11. Un experimento para demostrar la refracción de la luz. En (a) la moneda está
apenas oculta por una orilla de la taza. En (b) la moneda aparece al llenar lentamente la
taza con agua. Los rayos luminosos cambian de dirección al pasar del agua al aire.
La forma precisa en que cambia la dirección de los rayos en la refracción, esto es, la ley
de la refracción, no es tan simple como la ley de la reflexión. Tal vez por esto, aunque el
fenómeno de la refracción era conocido desde la antigüedad, la ley de la refracción no fue
descubierta sino hasta el siglo XV por el astrónomo holandés Willebrord Snell, quien,
inexplicablemente, no la dio a conocer, describiéndola solamente en sus notas personales
de investigación. La ley de la refracción fue divulgada por Descartes en 1627, pero se
conoce universalmente como la ley de Snell. No relaciona los ángulos de los rayos
luminosos con la perpendicular a la superficie de refracción, sino los senos de esos
ángulos. En símbolos matemáticos se expresa así: sen (i) / sen (r') = constante = n; esto
es, el cociente de los senos de los ángulos de incidencia i y de refracción r' toma el mismo
valor para todos los valores posibles de estos ángulos. Por ejemplo, si los rayos pasan del
aire al agua la cantidad constante n, llamada índice de refracción, vale 4/ 3 y se tiene sen
(i) / sen (r') = 4/ 3.
La ley de la refracción de la luz también puede ser deducida aplicando la ley de
variación del tamaño aparente con la distancia. La figura 12 muestra un sencillo
experimento para hacer esto. Dos monedas pequeñas se ponen en dos tazas, una vacía y
la otra parcialmente llena de agua. Observándolas desde arriba y a la misma altura, la
moneda sumergida en agua se ve más grande debido a que por la refracción de la luz los
rayos que emite se abren más al pasar por la superficie del agua y llegan al ojo como si
hubieran sido emitidos por una moneda más cercana. De los tamaños aparentes de las
dos monedas se deducen los ángulos que forman los rayos con la perpendicular a la
superficie; el de los rayos refractados depende de la altura de llenado de la taza. Los
senos de estos ángulos se obtienen de una tabla de valores y dividiendo el mayor entre el
menor se encuentra que su cociente siempre es 4/ 3, el índice de refracción del agua;
independientemente de la altura de llenado de la taza.
[pic]
Figura 12. Un experimento para comprobar la ley de la refracción. La moneda
sumergida en el agua se ve más grande porque los rayos que parten de ella se abren al
salir al aire y parecen llegar de una moneda más cercana. Relacionando los tamaños
aparentes con los ángulos de los rayos se obtiene la ley de la refracción, o ley de Snell.
La hipótesis de los rayos luminosos y las leyes de la reflexión y de la refracción de la luz
son el fundamento de la óptica geométrica. Con ellas es posible predecir el curso que
tomarán los rayos luminosos que lleguen a lentes o a espejos. Por ejemplo, en la figura
13, los rayos que llegan de un punto luminoso a la lente de una lupa común son
divergentes, pero se hacen convergentes al atravesarla debido a las refracciones que
ocurren en las dos superficies del vidrio. Después de alcanzar el punto de convergencia
los rayos vuelven a ser divergentes, de manera que si los vemos desde un lugar más
lejano aún, los percibimos como si se originaran en el punto de convergencia; es decir,
como si el objeto hubiera sido transportado a ese lugar. Se dice que en este punto se
forma una imagen real del objeto. Las leyes de la refracción permiten calcular el lugar
preciso donde se forma esa imagen. Mirando con otra lupa en ese lugar se observa la
imagen amplificada del objeto. Así es, esencialmente, como funciona un telescopio
(Figura 14). Este instrumento utiliza dos lentes del tipo llamado convergente, parecidas a
la de una lupa en que son más gruesas enmedio que en la orilla. La primera de ellas —
llamada objetivo— produce una imagen real de un objeto lejano, como la Luna, en un
punto atrás y cerca de la lente. La segunda lente del telescopio, llamada ocular, se usa
simplemente como una lente de aumento común para amplificar y observar esta imagen
(Figura 14).
[pic]
Figura 13. Una lupa intercepta rayos divergentes emitidos por un punto luminoso y los
reúne en otro punto. Los rayos reunidos parecen salir de este lugar. Se dice que aquí se
forma una imagen real del punto luminoso.
[pic]
Figura 14. Un telescopio sencillo se compone de una lente, llamada objetivo, que forma
cerca de ella una imagen real de un objeto lejano, y de una lente de aumento, llamada
ocular, con la que se examina esta imagen.
Resumiendo lo anterior, la óptica geométrica está compuesta por una hipótesis, la de
los rayos rectos luminosos; por dos leyes derivadas de la experiencia, la de la reflexión y
la de la refracción de la luz, y por una ciencia matemática, la geometría, con la que se
puede aplicar metódicamente a los problemas ópticos. La óptica geométrica ha sido
extraordinariamente fructífera por estar basada en leyes que se cumplen con precisión y
en una ciencia tan completa como la geometría, pero parte de su éxito es resultado de su
hipótesis principal. Es decir, aunque no se ha intentado siquiera aclarar de qué están
hechos los rayos luminosos, deben estar hechos de algo que se propaga como esos
rayos; de otra manera la teoría no habría tenido tanto éxito.
Isaac Newton suponía que los rayos luminosos están compuestos por partículas
extraordinariamente diminutas que los cuerpos luminosos arrojan a gran velocidad y que
al penetrar al ojo e incidir sobre la retina estimulan la visión. Newton apoyaba estas ideas
en el fenómeno de la propagación rectilínea de la luz, pues sólo suponiéndola compuesta
por partículas independientes podía imaginar que los rayos de luz pudieran ser separados
unos de otros por medio de un popote como en la figura 1, o de una lente convergente
como en la figura 13. Otro importante argumento que Newton daba en apoyo a esta idea
era que la luz no da la vuelta a cuerpos opacos; o bien, que la sombra geométrica de un
cuerpo está limitada por líneas rectas como en la figura 7. Este argumento se esgrimía
principalmente en contra de las ideas de Descartes, quien suponía que la luz era una
"especie de presión" propagada alrededor de los cuerpos luminosos que al llegar al ojo
estimulaba la visión. Pero, argüía Newton, una zona de presión como ésta no tendría por
qué no propagarse alrededor de los cuerpos y entrar en la sombra geométrica; esto es, si
la luz fuera causada por esas "zonas de presión", también debería percibirse en la sombra
geométrica de cuerpos opacos.
Las ideas de Newton desembocaban también en importantes conclusiones al aplicarlas
a la refracción de la luz. La figura 15 intenta explicar la refracción estudiando el
movimiento de una pelota de tenis. Debido a que la velocidad de la pelota es diferente en
el agua que en el aire, la dirección de su movimiento cambia al atravesar la superficie;
esto es, se refracta. Y se puede demostrar que si la velocidad en el agua es menor que en
el aire el ángulo de refracción r' es mayor que el de incidencia i, como aparece en esa
figura. Pero en la refracción de la luz ocurre precisamente lo contrario, el ángulo de
refracción es menor que el de incidencia al pasar del aire al agua, o al pasar a cualquier
otro medio más denso como, por ejemplo, el vidrio. Es, entonces, inevitable concluir que,
si estuviera compuesta por partículas, la luz sería más rápida en los medios más densos.
En particular, debería ser más rápida en cualquier medio transparente que en el vacío. En
tiempos de Newton (1642-1727) sólo era posible medir la velocidad de la luz por medios
astronómicos y de ninguna manera en un laboratorio, como hubiera sido necesario para
medirla en agua, o en vidrio, y comparar este valor con el ya conocido para el vacío. Por
este camino, pues, no fue posible adentrarse en el conocimiento de la naturaleza de los
rayos luminosos por muchos años.
[pic]
Figura 15. La velocidad de una pelota de tenis disminuye y la dirección de su
movimiento se acerca a la superficie al entrar al agua. La luz, por el contrario, al entrar al
agua se aleja de la superficie. De esto se deduce que, si la luz estuviera formada por
partículas, éstas se moverían más rápidamente en agua que en aire.
8.2 Espejos planos y esféricos
Espejos planos y esféricos
a) Espejos planos.
[pic]
¿Cómo se comporta un espejo plano en los cambios de dirección de la luz?
En la imagen un objeto P emite un rayo PO perpendi-cular al espejo y vuelve en la misma
dirección. Otro rayo PQ incide oblicuamente sobre el espejo y se refleja en él. Las
prolongaciones de los rayos salientes, OP y QR proporcionan la situación de la imagen P'
, a la misma distancia de O que P y en la recta perpendicular al espejo que pasa por P.
Luego
s'= -s
¿Cómo puede obtenerse este resultado a partir de la ecuación del dioptrio
esférico?
Se puede observar que si el índice de refracción para el espejo, n'= -n, y R=( , se
obtiene la ecuación anterior.
[pic]; [pic]
[pic]
La imagen formada está a la derecha del espejo, a la misma distancia del espejo
que el objeto y es una imagen virtual.
El tamaño de la imagen es igual al del objeto por simples consideraciones de
simetría.
AB=A'B'
b) Espejos esféricos
Pueden considerarse un caso particular de un dioptrio esférico con n'= -n
[pic];
si n' = -n ; [pic][pic]
de donde
[pic] Ecuación de los espejos
Distancia focal objeto Distancia focal imagen
Si s=f ( s'=( Si s=f ( s'=(
[pic]; luego [pic] [pic]; luego [pic]
[pic]
En la imagen adjunta puede verse la formación de la imagen A'B' de un objeto AB a
través de un espejo convexo. La imagen es virtual , derecha y más pequeña.
Un rayo paralelo al eje óptico que sale del punto B del objeto, se refleja y su
prolongación pasa por el foco imagen F'.
Un rayo orientado hacia el foco objeto F, coincidente en esta caso con F', se refleja en el
espejo y sale hacia la izquierda paralelo al eje óptico.
La intersección de las prolongaciones determina la imagen, que en este caso es
virtual.
Aplicación
Un objeto de tamaño 0,5 cm está a 5,0 cm de un espejo convexo de radio 25 cm.
¿Dónde estará la imagen?.¿Cuál será su tamaño y qué tipo de imagen será?
[pic]; s= -5,0 cm ; R=+25 cm ; y= +0,5 cm ; [pic]; s'=+25/7
La imagen estará a +25/7=+3,5 cm a la derecha del espejo. La imagen será virtual y
su tamaño
[pic]
La imagen será derecha. Estas características se corresponden con la imagen
anterior.
Aplicación
Un objeto AB de tamaño 0,5 cm está a 5,0 cm de un espejo cóncavo de radio 20,0 cm
. ¿Dónde estará la imagen?.¿Cuál será su tamaño y qué tipo de imagen será?
[pic]
Los datos son:
s= -5,0 cm ; R= -20,0 cm ; y= +0,5 cm ; [pic]; [pic]; s'=+10 cm
La imagen estará a 10 cm a la derecha del espejo. La imagen será virtual. El aumento
lateral es:
[pic]
La imagen será derecha, porque y' es positiva, y de tamaño el que el objeto.
Los siguientes diagramas muestran la formación de imágenes a través de espejos
cóncavos.
[pic]
[pic]
Aplicación
¿A qué distancia delante de un espejo esférico convexo de radio R=+30 cm ha de
colocarse un objeto para que la imagen sea de la mitad de tamaño que el objeto? La
ecuación de los espejos es: [pic] y el aumento lateral
AL= [pic]1/2
las ecuaciones anteriores permiten hallar s= - 15 cm
8.3 Lentes convergentes y divergentes
Lentes Convergentes y Divergentes
Una lente es un medio transparente limitado por dos superficies de las cuales al menos
una es curva. Una onda incidente sufre dos refracciones al pasar a través de la lente.
Una lente delgada es una lente cuyo grosor es pequeño comparado con los radios de
curvatura de sus superficies.
Hay dos tipos de lentes: convergentes y divergentes.
Convergentes: son más gruesas en el centro que en los extremos. Se representan
esquemáticamente con una línea con dos puntas de flecha en los extremos.
[pic]
Según el valor de los radios de las caras pueden ser: biconvexas (1), plano convexas (2) y
menisco convergente (3).
Divergentes: Son más delgadas en la parte central que en los extremos. Se representan
esquemáticamente por una línea recta acabada en dos puntas de flecha invertidas.
[pic]
Según el valor de los radios de las caras (que son dioptrios) pueden ser: bicóncavas (4),
plano cóncavas (5) y menisco divergente (6).
En esta foto vemos dos lentes de las que existen en los laboratorios de óptica.
[pic]
Se define además la potencia de una lente como la inversa de su distancia focal imagen
P=1/f´ y mide la mayor o menor convergencia de los rayos emergentes, a mayor potencia
mayor convergencia de los rayos. La unidad de potencia de una lente es la dioptría, que
se define como la potencia de una lente cuya distancia focal es de un metro.
Partiendo de la ecuación fundamental del dioptrio y teniendo en cuenta que al pasar un
rayo por una lente atraviesa dos dioptrios, suponemos siempre que la lente está en el aire
(n = 1) y llamaremos n al índice de refracción del material con el que está construida la
lente.
Aplicando dos veces la ecuación del dioptrio y sumando se obtiene la ecuación
fundamental de las lentes delgadas:
1/s´ – 1/s = (n-1) ( 1/R1 – 1/R2 )
Donde R1 y R2 son los radios de curvatura del primer y segundo dioptrio.
A partir de esa ecuación se pueden obtener las expresiones para calcular la distancia
focal objeto y la distancia focal imagen.
Por ejemplo haciendo s´=f´ y s = infinito se obtiene:
1/f´ = (n-1) ( 1/R1 – 1/R2 )
En la lentes convergentes el foco imagen está a la derecha de la lente, f´ > 0.
En la lentes divergentes el foco imagen está a la izquierda de la lente, f´ < 0.
Se cumple que: f = -f´
La ecuación fundamental de las lentes se puede resumir en la siguiente expresión:
1/s´ – 1/s = 1/f´
A partir de una construcción gráfica es fácil deducir que el aumento lateral se puede
calcular del siguiente modo:
ML = y´/y = s´/s
La construcción de imágenes es muy sencilla si se utilizan los rayos principales:
• - Rayo paralelo: Rayo paralelo al eje óptico que parte de la parte superior del objeto.
Después de refractarse pasa por el foco imagen.
• - Rayo focal: Rayo que parte de la parte superior del objeto y pasa por el foco objeto,
con lo cual se refracta de manera que sale paralelo . Después de refractarse pasa por el
foco imagen.
• - Rayo radial: Rayo que parte de la parte superior del objeto y está dirigido hacia el
centro de curvatura del dioptrio. Este rayo no se refracta y continúa en la misma dirección.
8.4 Punto de vista contemporáneo (dualidad)
La dualidad onda-corpúsculo, también llamada dualidad onda-partícula, resolvió una
aparente paradoja, demostrando que la luz puede poseer propiedades de partícula y
propiedades ondulatorias.
De acuerdo con la física clásica existen diferencias entre onda y partícula. Una partícula
ocupa un lugar en el espacio y tiene masa mientras que una onda se extiende en el
espacio caracterizándose por tener una velocidad definida y masa nula.
Actualmente se considera que la dualidad onda-partícula es un ―concepto de la mecánica
cuántica según el cual no hay diferencias fundamentales entre partículas y ondas: las
partículas pueden comportarse como ondas y viceversa‖. (Stephen Hawking, 2001)
Éste es un hecho comprobado experimentalmente en múltiples ocasiones. Fue
introducido por Louis-Victor de Broglie, físico francés de principios del siglo XX. En 1924
en su tesis doctoral propuso la existencia de ondas de materia, es decir que toda materia
tenía una onda asociada a ella. Esta idea revolucionaria, fundada en la analogía con que
la radiación tenía una partícula asociada, propiedad ya demostrada entonces, no despertó
gran interés, pese a lo acertado de sus planteamientos, ya que no tenía evidencias de
producirse. Sin embargo, Einstein reconoció su importancia y cinco años después, en
1929, De Broglie recibió el Nobel en Física por su trabajo.
Su trabajo decía que la longitud de onda λ de la onda asociada a la materia era
[pic]
donde h es la constante de Planck y p es la cantidad de movimiento de la partícula de
materia.
8.4.1 Modelo corpuscular
Se la conoce como teoríacorpuscular o de la emisión. A finales del siglo XVI, con el uso
de lentes e instrumentos ópticos, empezaran a experimentarse los fenómenos luminosos,
siendo el holandés Willebrord Snell, en 1620, quién descubrió experimentalmente la ley
de la refracción, aunque no fue conocida hasta que, en 1638, René Descartes(1596-1650)
publicó su tratado: Óptica. Descartes fue el primer gran defensor de la teoría corpuscular,
diciendo que la luz se comportaba como un proyectil que se propulsaba a velocidad
infinita, sin especificar absolutamente nada sobre su naturaleza, pero rechazando que
cierta materia fuera de los objetos al ojo.
Explicó claramente la reflexión, pero tuvo alguna dificultad con la refracción.
Según Newton, las fuentesluminosas emiten corpúsculos muy livianos que se desplazan a
gran velocidad y en línea recta. Podemos fijar ya la idea de que esta teoría además de
concebir la propagación de la luz por medio de corpúsculos, también sienta el principio de
que los rayos se desplazan en forma rectilínea.
Como toda teoría física es válida en tanto y en cuanto pueda explicar los fenómenos
conocidos hasta el momento, en forma satisfactoria.
Newton explicó que la variación de intensidad de la fuente luminosa es proporcional a la
cantidad de corpúsculos que emite en determinado tiempo.
La reflexión de la luz consiste en la incidencia de dichos corpúsculos en forma oblicua en
una superficie espejada, de manera que al llegar a ella varía de dirección pero siempre en
el mismo medio.
La igualdaddel ángulo de incidencia con el de reflexión se debe a la circunstancia de que
tanto antes como después de la reflexión los corpúsculos conservan la misma velocidad
(debido a que permanece en el mismo medio).
La refracción la resolvió expresando que los corpúsculos que inciden oblicuamente en una
superficie de separación de dos medios de distinta densidadson atraídos por la masa del
medio más denso y, por lo tanto, aumenta la componente de la velocidad que es la
velocidad que es perpendicular a la superficie de separación, razón por la cual los
corpúsculos luminosos se acercan a la normal.
El fenómeno de la birrefrigencia del espato de Islandia descubierto por el danés
Bartholinus en 1669, quiso ser justificado por Newton suponiendo que los corpúsculos del
rayo podían ser rectangulares y sus propiedades variar según su orientación respecto a la
dirección de la propagación.
Según lo expresado por Newton, la velocidad de la luz aumentaría en los medios de
mayor densidad, lo cual contradice los resultados de los experimentos realizados años
después.
Esta explicación, contradictoria con los resultados experimentales sobre la velocidad de la
luz en medios más densos que el vacío, obligó al abandono de la teoría corpuscular.
8.4.2 Modelo ondulatorio
Propugnada por Christian Huygens en el año 1678, describe y explica lo que hoy se
considera como leyes de reflexión y refracción. Define a la luz como un
movimientoondulatorio semejante al que se produce con el sonido.
Propuso el modelo ondulatorio, en el que se defendía que la luz no era mas que una
perturbación ondulatoria, parecida al sonido, y de tipo mecánico pues necesitaba un
medio material para propagarse. Supuso tres hipó tesis:
1. todos los puntos de un frente de ondaseran centros emisores de ondas secundarias;
2. de todo centro emisor se propagaban ondas en todas direcciones del espacio con
velocidad distinta en cada medio;
3. como la luz se propagaba en el vacío y necesitaba un material perfecto sin rozamiento,
se supuso que todo el espacio estaba ocupado por éter, que hacía de soporte de las
ondas.
hora, como los físicos de la época consideraban que todas las ondas requerían de algún
medio que las transportaran en el vacío, para las ondas lumínicas se postula como medio
a una materia insustancial e invisible a la cual se le llamó éter.
Justamente la presencia del éter fue el principal medio cuestionador de la teoría
ondulatoria. En ello, es necesario equiparar las vibraciones luminosas con las elásticas
transversales de los sólidos sin que se transmitan, por lo tanto, vibraciones longitudinales.
Aquí es donde se presenta la mayor contradicción en cuanto a la presencia del éter como
medio de transporte de ondas, ya que se requeriría que éste reuniera alguna
característica sólida pero que a su vez no opusiera resistencia al libre transito de los
cuerpos sólidos. (Las ondas transversales sólo se propagan a través de medios sólidos.)
En aquella época, la teoría de Huygens no fue muy considerada, fundamentalmente, y tal
como ya lo mencionamos, dado al prestigio que alcanzó Newton. Pasó más de un siglo
para que fuera tomada en cuenta la Teoría Ondulatoria de la luz. Los experimentos del
médico inglés Thomas Youngsobre los fenómenos de interferencias luminosas, y los del
físico francés Auguste Jean Fresnelsobre la difracción fueron decisivos para que ello
ocurriera y se colocara en la tabla de estudios de los físicos sobre la luz, la propuesta
realizada en el siglo XVII por Huygens.
Young demostró experimentalmente el hecho paradójico que se daba en la teoría
corpuscular de que la suma de dos fuentes luminosas pueden producir menos
luminosidad que por separado. En una pantalla negra practica dos minúsculos agujeros
muy próximos entre sí: al acercar la pantalla al ojo, la luz de un pequeño y distante foco
aparece en forma de anillos alternativamente brillantes y oscuros. ¿Cómo explicar el
efecto de ambos agujeros que por separado darían un campo iluminado, y combinados
producen sombra en ciertas zonas? Young logra explicar que la alternancia de las franjas
por la imagende las ondas acuáticas. Si las ondas suman sus crestas hallándose en
concordancia de fase, la vibración resultante será intensa. Por el contrario, si la cresta de
una onda coincide con el valle de la otra, la vibración resultante será nula. Deducción
simple imputada a una interferencia y se embriona la idea de la luz como estado vibratorio
de una materia insustancial e invisible, el éter, al cual se le resucita.
Ahora bien, la colaboración de Auguste Fresnel para el rescate de la teoría ondulatoria de
la luz estuvo dada por el aporte matemático que le dio rigor a las ideas propuestas por
Young y la explicación que presentó sobre el fenómeno de la polarización al transformar
el movimiento ondulatorio longitudinal, supuesto por Huygens y ratificado por Young,
quien creía que las vibraciones luminosas se efectuaban en dirección paralela a la
propagación de la onda luminosa, en transversales. Pero aquí, y pese a las sagaces
explicaciones que incluso rayan en las adivinanzas dadas por Fresnel, inmediatamente
queda presentada una gran contradicción a esta doctrina, ya que no es posible que se
pueda propagar en el éter la luz por medio de ondas transversales, debido a que éstas
sólo se propagan en medios sólidos.
En su trabajo, Fresnel explica una multiplicidad de fenómenos manifestados por la luz
polarizada. Observa que dos rayos polarizados ubicados en un mismo plano se
interfieren, pero no lo hacen si están polarizados entre sí cuando se encuentran
perpendicularmente. Este descubrimiento lo invita a pensar que en un rayo polarizado
debe ocurrir algo perpendicularmente en dirección a la propagación y establece que ese
algo no puede ser más que la propia vibración luminosa. La conclusión se impone: las
vibraciones en la luz no pueden ser longitudinales, como Young lo propusiera, sino
perpendiculares a la dirección de propagación, transversales.
Las distintas investigacionesy estudios que se realizaron sobre la naturaleza de la luz, en
la época en que nos encontramos de lo que va transcurrido del relato, engendraron
aspiraciones de mayores conocimientos sobre la luz. Entre ellas, se encuentra la de lograr
medir la velocidad de la luz con mayor exactitud que la permitida por las observaciones
astronómicas. Hippolyte Fizeau (1819- 1896) concretó el proyectoen 1849 con un clásico
experimento. Al hacer pasar la luz reflejada por dos espejos entre los intersticios de una
rueda girando rápidamente, determinó la velocidad que podría tener la luz en su
trayectoria, que estimó aproximadamente en 300.000 km./s. Después de Fizeau, lo siguió
León Foucault (1819 – 1868) al medir la velocidad de propagación de la luz a través del
agua. Ello fue de gran interés, ya que iba a servir de criterio entre la teoría corpuscular y
la ondulatoria.
La primera, como señalamos, requería que la velocidad fuese mayor en el agua que en el
aire; lo contrario exigía, pues, la segunda. En sus experimentos, Foucaultlogró comprobar,
en 1851, que la velocidad de la luz cuando transcurre por el agua es inferior a la que
desarrolla cuando transita por el aire. Con ello, la teoría ondulatoria adquiere cierta
preeminencia sobre la corpuscular, y pavimenta el camino hacia la gran síntesis realizada
por Maxwell.
En 1670, por primera vez en la historia, el astrónomo danés Olaf Roemer pudo calcular la
velocidad de la luz.
Se hallaba estudiando los eclipses de uno de los satélitesde Júpiter, cuyo período había
determinado tiempo atrás. Estaba en condiciones de calcular cuales serían los próximos
eclipses. Se dispuso a observar uno de ellos, y con sorpresa vio que a pesar de que
llegaba el instante tan cuidadosamente calculado por él, el eclipse no se producía y que el
satélite demoró 996 seg. en desaparecer.
Roemer realizó sus primeros cálculos cuando la tierra se encontraba entre el Sol y Júpiter;
pero cuando observó el retraso en el eclipse era el Sol quien se encontraba entre la Tierra
y Júpiter.
Por lo tanto la luz debía recorrer una distancia suplementaria de 299.000.000 Km., que es
el diámetro de la órbita terrestre, por lo tanto:
Vel. Luz = Diam. Órbita terrestre 299.000.000 Km / Atraso observado 996 seg. = 300.200
Km/seg.
Observaciones posteriores llevaron a la conclusión que el atraso en cuestión era de 1.002
seg. , lo cual da por resultado que la velocidad de la luz sería de 298.300 Km/seg.
Si se consideraba onda, la luz debería atravesar los obstáculos, como el sonido. Como no
era así, se precisaba de alguna nueva hipótesis. Aún mas considerando que tampoco
podía explicar los fenómenos de polarización. Todos estos problemas, junto al prestigio
de Newton que defendía la teoría contraria, relegó a un segundo plano, durante algún
tiempo, el modelo ondulatorio.
En 1849, el físico francés Fizeau, logró medir la velocidad de la luz con una experiencia
hecha en la tierra.
Envió un rayo de luz, por entre los dientes de una rueda dentada que giraba a gran
velocidad, de modo que se reflejara en un espejo y volviera hacia la rueda.
Esta relación de velocidad entre el camino recorrido por la luz en su ida y vuelta y las
revoluciones de la rueda dentada, fue la que tomó Fizeau de base para calcular la
velocidad de la luz.
Podemos escribir: t = 2d / v
Si la rueda tiene N dientes y N espacios, y da n vueltas por segundo y pasan en 1 seg. 2
Nn dientes y espacios
t= 1 /.2Nn
Cuando no llega mas luz al observador es evidente que estos tiempos son iguales y por lo
tanto tenemos:
2d / v = 1 / 2Nn
de donde v = 4 d Nn
Fizeau colocó el espejo a 8.633 m del observador, la rueda tenía 760 dientes y giraba a
12,6 revoluciones por segundo.
Si aplicamos la fórmula obtenida, resultará:
V = 313.274 Km./seg.
León Foucault y casi simultáneamente Fizeau, hallaron en 1850 un método que permite
medir la velocidad de la luz en espacios reducidos.
La idea consiste en enviar un haz de luz sobre un espejo giratorio haciéndole atravesar
una lámina de vidriosemitransparente y semirreflectora, un espejo fijo devuelve el rayo y
atraviesa luego lámina observándose la mancha luminosa en una pantalla.
Con este método se obtuvo que:
V = 295.680 Km./seg.
Luego Foucault junto a concibió la idea de calcular la velocidad de la luz en otro medio
que no sea el aire.
Midieron la velocidad de la luz en el agua y obtuvieron un resultado experimental que
decidió la controversia a favor de la teoría ondulatoria.
En general todas las mediciones de que se tiene conocimiento obtuvieron resultados entre
298.000 Km/seg y 313.300 Km/seg sin embargo se toma como velocidad de la luz la de
300.000 Km/seg por ser un término medio entre los valores obtenidos y por ser una cifra
exacta que facilitan los cálculos.
9. Física contemporánea
9.1 Estructura atómica de la materia
[pic]
Estructura atómica de la materia:
El estudio de la estructura atómica de la materia sirve para explicar las propiedades de
los materiales.
La materia está compuesta por átomos, que a efectos prácticos se considerarán
partículas esféricas de 10-10 m de tamaño.
Átomo (del latín atomus, y éste del griego άτομος, indivisible) es la unidad más
pequeña de un elemento químico que mantiene su identidad o sus propiedades y que no
es posible dividir mediante procesos químicos.
Con el desarrollo de la física nuclear en el siglo XX se comprobó que el átomo puede
subdividirse en partículas más pequeñas.
Así la estructura atómica se puede dividir en:
Corteza:
compuesta por partículas cargadas negativamente que reciben el nombre de electrones.
La cantidad de electrones que tiene un átomo y el modo en que se distribuyen en su
corteza condiciona por completo las propiedades físicas y químicas que va a poseer el
elemento.
Núcleo: compuesto por los protones, que tienen carga positiva, y los neutrones, que son
eléctricamente neutros. Ambos tienen la misma masa.
Los átomos son eléctricamente neutros, aunque pueden perder o ganar electrones,
entonces se denominan iones.
Compuestos químicos:
Lo más frecuente es encontrar los elementos combinados entre sí, en forma de moléculas
y no en estado puro, como la plata o el cobre. Estos compuestos no tienen las mismas
propiedades físicas y químicas que los elementos de los que están formados, sino
distintas.
No es lo mismo compuesto químico que mezcla.
Un compuesto químico se da en proporciones definidas y es químicamente estable, no así
la mezcla cuyas propiedades son una combinación de las de sus componentes.
9.1.1 Modelos atómicos
|Historia: modelos atómicos
|
|[pic] |
| |
|Desde la Antigüedad, el ser humano se ha cuestionado de qué estaba hecha la materia.
|
|Unos 400 años antes de Cristo, el filósofo griego Demócrito consideró que la materia
estaba constituida por pequeñísimas partículas |
|que no podían ser divididas en otras más pequeñas. Por ello, llamó a estas partículas
átomos, que en griego quiere decir |
|"indivisible". Demócrito atribuyó a los átomos las cualidades de ser eternos, inmutables e
indivisibles. |
|Sin embargo las ideas de Demócrito sobre la materia no fueron aceptadas por los
filósofos de su época y hubieron de transcurrir cerca|
|de 2200 años para que la idea de los átomos fuera tomada de nuevo en consideración.
|
| |
|Año |
|Científico |
|Descubrimientos experimentales
|
|Modelo atómico
|
| |
|1808 |
|[pic] |
|John Dalton |
|Durante el s.XVIII y principios del XIX algunos científicos habían investigado distintos
aspectos de las reacciones químicas, |
|obteniendo las llamadas leyes clásicas de la Química.
|
| |
|[pic] |
| |
| |
|La imagen del átomo expuesta por Dalton en su teoría atómica, para explicar estas leyes,
es la de minúsculas partículas esféricas, |
|indivisibles e inmutables,
|
| |
|iguales entre sí en cada elemento químico.
|
|[pic] |
| |
| |
| |
|1897 |
|[pic] |
|J.J. Thomson |
|Demostró que dentro de los átomos hay unas partículas diminutas, con carga eléctrica
negativa, a las que se llamó electrones. |
| |
|[pic] |
| |
| |
|De este descubrimiento dedujo que el átomo debía de ser una esfera de materia cargada
positivamente, en cuyo interior estaban |
|incrustados los electrones.
|
| |
|(Modelo atómico de Thomson.)
|
|[pic] |
| |
| |
| |
|1911 |
|[pic] |
|E. Rutherford |
|Demostró que los átomos no eran macizos, como se creía, sino que están vacíos en su
mayor parte y en su centro hay un diminuto |
|núcleo. |
| |
|[pic] |
| |
| |
|Dedujo que el átomo debía estar formado por una corteza con los electrones girando
alrededor de un núcleo central cargado |
|positivamente. |
| |
|(Modelo atómico de Rutherford.)
|
|[pic] |
| |
| |
| |
|1913 |
|[pic] |
|Niels Bohr |
|Espectros atómicos discontinuos originados por la radiación emitida por los átomos
excitados de los elementos en estado gaseoso. |
| |
|[pic] |
| |
| |
|Propuso un nuevo modelo atómico, según el cual los electrones giran alrededor del
núcleo en unos niveles bien definidos. |
| |
|(Modelo atómico de Bohr.)
|
|[pic] |
| |
| |
| |
|[pic] |
| |
|[pic] |
9.1.2 El experimento de Rutherford
Experimento de Rutherford
De Wikipedia, la enciclopedia libre
Saltar a navegación, búsqueda
[pic]
[pic]
El experimento de Rutherford mejoró el modelo atómico de Thomson.
[pic]
[pic]
Arriba Resultados esperados: Las partículas alfa pasando a través del modelo del pudding
con pasas sin verse alteradas
[pic]
Abajo: Resultados observados: Una pequeña parte de las partículas eran desviadas,
demostrando la existencia de un minúsculo volumen de carga positiva
El experimento de Rutherford, también llamado experimento de la lámina de oro, fue
realizado por Hans Geiger y Ernest Marsden en 1909, y publicado en 1911[1] , bajo la
dirección de Ernest Rutherford en los Laboratorios de Física de la Universidad de
Manchester. Los resultados obtenidos y el posterior análisis tuvieron como consecuencia
la rectificación del modelo atómico de Thomson (modelo atómico del pudding con pasas)
y la propuesta de un modelo nuclear para el átomo.
El experimento consistió en mandar un haz de partículas alfa sobre una fina lámina de oro
y observar cómo dicha lámina afectaba a la trayectoria de dichos rayos.
Las partículas alfa se obtenían de la desintegración de una sustancia radiactiva, el
polonio. Para obtener un fino haz se colocó el polonio en una caja de plomo, el plomo
detiene todas las partículas, menos las que salen por un pequeño orificio practicado en la
caja. Perpendicular a la trayectoria del haz se interponía la lámina de metal. Y, para la
detección de trayectoria de las partículas, se empleó una pantalla con sulfuro de zinc que
produce pequeños destellos cada vez que una partícula alfa choca con él.
Según el modelo de Thomson, las partículas alfa atravesarían la lámina metálica sin
desviarse demasiado de su trayectoria:
• La carga positiva y los electrones del átomo se encontraban dispersos de forma
homogénea en todo el volumen del átomo. Como las partículas alfa poseen una gran
masa (8.000 veces mayor que la del electrón) y gran velocidad (unos 20.000 km/s), la
fuerzas eléctricas serían muy débiles e insuficientes para conseguir desviar las partículas
alfa.
• Además, para atravesar la lámina del metal, estas partículas se encontrarían con
muchos átomos, que irían compensando las desviaciones hacia diferentes direcciones.
Pero se observó que un pequeño porcentaje de partículas se desviaban hacia la fuente de
polonio, aproximadamente una de cada 8.000 partícula al utilizar una finísima lámina de
oro con unos 200 átomos de espesor. En palabras de Rutherford ese resultado era "tan
sorprendente como si le disparases balas de cañón a una hoja de papel y rebotasen hacia
ti".
Rutherford concluyó que el hecho de que la mayoría de las partículas atravesaran la hoja
metálica, indica que gran parte del átomo está vacío, que la desviación de las partículas
alfa indica que el deflector y las partículas poseen carga positiva, pues la desviación
siempre es dispersa. Y el rebote de las partículas alfa indica un encuentro directo con una
zona fuertemente positiva del átomo y a la vez muy densa.
El modelo atómico de Rutherford mantenía el planteamiento de Thomson, de que los
átomos poseen electrones, pero su explicación sostenía que todo átomo estaba formado
por un núcleo y una corteza. El núcleo debía tener carga positiva, un radio muy pequeño y
en él se concentraba casi toda la masa del átomo. La corteza estaría formada por una
nube de electrones que orbitan alrededor del núcleo.
Según Rutherford, las órbitas de los electrones no estaban muy bien definidas y formaban
una estructura compleja alrededor del núcleo, dándole un tamaño y forma indefinida.
También calculó que el radio del átomo, según los resultados del experimento, era diez
mil veces mayor que el núcleo mismo, lo que implicaba un gran espacio vacío en el
átomo.
9.1.3 Espectroscopía y el modelo atómico de Bohr
E l físico danés Niels Bohr ( Premio Nobel de Física 1922), postuló que los electrones
giran a grandes velocidades alrededor del núcleo atómico. En ese caso, los electrones se
disponen en diversas órbitas circulares, las cuales determinan diferentes niveles de
energía.
Para Bohr, la razón por la cual los electrones que circulan en los átomos no satisfacen
las leyes de la electrodinámica clásica, es porque obedecen a las leyes de la mecánica
cuántica. Sin duda, giran en torno del núcleo atómico, pero circulan únicamente sobre
órbitas tales que sus impulsos resultan determinados por múltiplos enteros de la
constante de Planck. Los electrones no radian durante todo el tiempo en que describen
sus órbitas; solamente cuando el electrón salta de una órbita a otra, más cercana del
núcleo, lanza un cuanto de luz, un fotón. Emitidos por los átomos de gases
incandescentes, son los fotones los que engendran las rayas espectrales, y Bohr tuvo el
portentoso acierto de poder explicar las rayas del hidrógeno. En efecto, las longitudes de
onda de estas líneas espectrales se vuelven calculables a partir del modelo de átomo
cuantizado por Bohr, que interpreta también el origen de los espectros elementales
embrionados por los rayos X.
Bohr, gracias a la cuantización de su átomo, logró el gran éxito de explicar las líneas
espectrales del hidrógeno. "Le fue dado –escribió Planck– descubrir en el concepto del
cuanto la llave, por tanto tiempo buscada en vano, de la puerta de entrada del maravilloso
país de la espectroscopia, que resistiera desde los tiempos de Kirchhoff y Bunsen todas
las tentativas para abrirla‖ . La teoría original debía sufrir numerosas y profundas
modificaciones; mas, sin el genio de Bohr, sin "la llave que abrió la puerta", el progreso
ulterior, que el gran teórico dinamarqués no dejó de orientar, no hubiera sido posible.
Pero antes que Bohr lograra explicar las líneas espectrales del hidrógeno, el maestro
suizo de dibujo de una escuela de Basilea Johann Jacob Balmer, logró establecer –en
1885, el mismo año en que naciera Bohr– una simple relación numérica, que ligaba las
longitudes de onda de las rayas espectrales del átomo de hidrógeno. En este
descubrimiento –fruto de tanteos aritméticos y pitagóricos– se escondían conocimientos
que este profesor de dibujo y paciente buscador estaba lejos de sospechar. Su fórmula,
generalizada por su compatriota Walter Ritz (1908), permitió prever, no sólo la sucesión
de las líneas en el espectro visible, sino también series de ellas en el espectro invisible –
ultravioleta e infrarrojo– del hidrógeno.
Lo que hemos descrito en el párrafo anterior, implicó que en el espectro del más
sencillo de los átomos, el caos había dado paso a un orden físico regido por la ley de
Balmer-Ritz:
[pic]
donde ν es la frecuencia de la línea, m y n son pequeños números enteros, y R es un
número fundamental, la célebre constante del sueco Johann Robert Rydberg, que había
seguido en espectros más complejos que el del hidrógeno la misteriosa recurrencia del
multiplicador R, calculando con gran precisión su valor. Empero, ¿cuál era el sentido de
estos hallazgos empíricos? Todos los esfuerzos considerables y perseverantes para
deducir las reglas de Balmer, de Ryddberg, y de Ritz, con la ayuda de analogías
mecánicas, acústicas y eléctricas, fracasaron completamente. "Creo –escribió Poincaré,
con profética visión– que aquí reside uno de los más importantes secretos de la
naturaleza‖ . Fue este secreto el que Bohr empezó a estudiar.
|ESPECTRO ATÓMICO
|
|[pic] |
|Los átomos de gases calientes emiten y absorben luz a ciertas longitudes de onda.
|
|En el gráfico de la izquierda, se demuestran tres espectros de emisión y uno de
absorción. |
| |
| |
|LÍNEAS ESPECTRALES DEL ÁTOMO DE HIDRÓGENO
|
|[pic] |
|En 1885 Johann Balmer descubrió una ecuación que describe la emisión y absorción del
espectro del átomo de hidrógeno: |
|1 / λ = 1.097 x 107 (1 / 4 - 1 / n2)
|
|donde n = 3, 4, 5, 6, ...
|
|Balmer encontró la ecuación dada la casualidad de un error, ya que no tenía ninguna
comprensión de la física subyacente. |
| |
|FORMULA DE BALMER
|
|[pic] |
|1 / λ = 1.097 x 107 (1 / 4 - 1 / n2)
|
| por n = 3, 4, 5, 6, .....
|
|-------------------------------------------
|
|donde n = 3:
|
| |
| |
|1 / λ = 1.097 x 107 (1 / 4 - 1 / 9)
|
| |
| = 1.524 x 106 m-1
|
| |
| λ = 6.56 x 10-7 m
|
| = 656 x 10-9 m
|
| = 656 nm
|
| |
|[pic] |
|La incapacidad de las leyes clásicas –mecánicas o electromagnéticas– para interpretar
los espectros emitidos por los átomos incandescentes, |
|¿no era acaso un índice de la invalidez de esas leyes en el interior del átomo? Plantear la
cuestión era afirmar el hecho. El modelo de |
|Rutherford había asimilado el átomo a un sistema planetario; Bohr tuvo el coraje de
introducir el cuanto elemental de Planck, la constante |
|h, y adoptar postulados cuya justificación sería su extraordinario éxito. Cualquier órbita
planetaria es concebible en torno del Sol, pero |
|los electrones planetarios en tomo del núcleo –demandó Bohr– solamente pueden
recorrer determinadas órbitas, cuyos radios son entre ellos |
|como los cuadrados de los números enteros. Sólo están permitidas las órbitas que
satisfacen como condición que el momento de la cantidad de |
|movimiento del electrón con respecto al núcleo, m v r, multiplicado por 2π, sea igual a un
número entero de cuanto h, 2h, 3h, y así |
|sucesivamente. Las demás trayectorias quedarán vedadas al electrón, que solamente
puede elegir las prescritas por la condición cuántica de |
|Bohr.
|
|[pic] |
|Bohr para desarrollar su modelo atómico utilizó el átomo de hidrógeno. Describió el
átomo de hidrógeno con un protón en el núcleo, y girando|
|a su alrededor un electrón.
|
|En éste modelo los electrones giran en órbitas circulares alrededor del núcleo; ocupando
la órbita de menor energía posible, o sea la órbita|
|más cercana posible al núcleo.
|
| |
| |
|Cada órbita se corresponde con un nivel energético que recibe el nombre de «número
cuántico principal», se representa con la letra "n"; y |
|toma valores desde 1 hasta 7.
|
|De acuerdo al número cuántico principal calculó las distancias a las cuales se hallaba
cada una de las órbitas permitidas en el átomo de |
|hidrógeno, respecto del núcleo.
|
| |
| |
| |
|Representación de las órbitas
|
|n |
|distancia
|
| |
|[pic] |
|1 |
|0,53 Å
|
| |
| |
|2 |
|2,12 Å
|
| |
| |
|3 |
|4,76 Å
|
| |
| |
|4 |
|8,46 Å
|
| |
| |
|5 |
|13,22 Å
|
| |
| |
|6 |
|19,05 Å
|
| |
| |
|7 |
|25,93 Å
|
| |
| |
| |
|Nota: Con Å se designa la unidad de longitud Angstrom (en el sistema SI) y equivale a
1.0x10-10 metros. |
|El electrón puede acceder a un nivel de energía superior pero para ello necesita
"absorber" energía. Cuando vuelve a su nivel de energía |
|original, el electrón necesita emitir la energía absorbida ( por ejemplo en forma de
radiación). |
| |
| |
|Por su parte, el electrón circula sobre esas órbitas, no radia ni pierde energía, de manera
que su estado permanece estable. Cada órbita |
|corresponde a un nivel determinado de energía, siendo el estado estable de menor
energía la trayectoria más próximo al núcleo. Si el átomo |
|recibe luz de una fuente exterior, la energía absorbida llevará al electrón a una órbita más
alejada del núcleo. En el interior atómico, |
|ganancia o pérdida de energía se traducen, pues, por saltos electrónicos que se
efectúan, en el primer caso, hacia los niveles superiores; |
|en el segundo, hacia los inferiores. El sentido de la ley Balmer – Ritz se aclara
súbitamente: es la diferencia entre la energía que |
|caracteriza la órbita de partida y la de llegada, la que es irradiada por el átomo. Al dividir
por h las energías de las órbitas estables |
|del átomo de hidrógeno, se obtienen los términos espectrales, y el principio de
combinación –misterioso cuando Ritz lo formulara– se |
|encuentra interpretado. También la constante de Rydberg –medida desde hace mucho
tiempo, pero refractaria a toda deducción teórica– se |
|vuelve, a priori, calculable: la masa y carga del electrón y la constante de Planck
conducen a su valor numérico. |
|En el modelo de átomo de Bohor, cada órbita electrónica está caracterizada por un
número cuántico, siendo la más próxima al núcleo aquélla |
|con un cuanto, la órbita K, seguida por la de dos quantum , llamada L, y así
sucesivamente. Si el electrón salta de una de las órbitas |
|exteriores a la órbita L, el átomo irradia las líneas espectrales de la serie Balmer, que
cruzan la parte visible del espectro del |
|hidrógeno. Según la proveniencia del electrón saltarín, las cantidades de energía
irradiadas, y con ellas la frecuencia (color) de la línea,|
|serán diferentes: la línea roja de esta serie es el producto de un salto procedente de la
órbita M; la línea azul, de uno desde la órbita N,|
|y así sucesivamente. De manera análoga, otras series reciben también su explicación: la
de Lyman, en el ultravioleta, corresponde a saltos |
|electrónicos a la órbita K; la de Parchen , en el infrarrojo, a saltos a la órbita M. En todos
los casos, las series están determinadas por |
|la órbita de llegada; las líneas dentro de una serie, por la órbita de partida del electrón
saltarín. |
|Describamos ahora el átomo de Bohr en términos matemáticos.
|
|Considérese un electrón de carga -e en una órbita circular de un radio r0 y la presencia
de una fuerza de Coulomb F generada por un protón |
|de igual carga opuesta ( F = ma ).
|
|[01] |
|[pic] |
|Usando de hecho que el momentum es p = mv, y que éste está dado en términos de la
longitud de onda de DeBroglie, entonces tenemos: |
|[02] |
|[pic] |
|ello, también permite estimar la velocidad en términos de la longitud de onda de
DeBroglie: |
|[03] |
|[pic] |
|En consecuencia, la ecuación [01] puede ser expresada con la longitud de onda de
DeBroglie omitiendo la velocidad: |
|[04] |
|[pic] |
|En este paso, Bohr da el salto cerrando la función de la onda e integrando su longitud a
un número de la circunferencia de la órbita: |
|[05] |
|[pic] |
|Combinando las ecuaciones [04] y [05] permite eliminar la longitud de onda y obtener la
solución el radio: |
|[06] |
|[pic] |
|Esto concuerda perfectamente con el resultado de la ecuación de Schröedinger, que es
la manera más correcta de solucionar el problema |
|Los hechos descritos en los párrafos precedentes fueron, en la historia de las ciencias, la
primera vez que una idea teórica acerca de la |
|estructura íntima del átomo permite dar cuantitativamente cuenta de una magnitud
medida experimentalmente. |
| |
|Este modelo, si bien se ha perfeccionado con el tiempo, ha servido de base a la moderna
física nuclear. |
9.2 Física nuclear
La física nuclear es una rama de la física que estudia las propiedades y el
comportamiento de los núcleos atómicos. La física nuclear es conocida mayoritariamente
por la sociedad por el aprovechamiento de la energía nuclear en centrales nucleares y en
el desarrollo de armas nucleares, tanto de fisión como de fusión nuclear. En un contexto
más amplio, se define la física nuclear y de partículas como la rama de la física que
estudia la estructura fundamental de la materia y las interacciones entre las partículas
subatómicas.
9.2.1 El descubrimiento de la radiactividad
El fenómeno de la radiactividad fue descubierto casualmente por Henri Becquerel(a la
izquierda) en 1896. Estudiaba los fenómenos de fluorescencia y fosforescencia, para lo
cual colocaba un cristal de Pechblenda, mineral que contiene uranio, encima de una placa
fotográfica envuelta en papel negro y las exponía al sol. Cuando desenvolvía la placa la
encontraba velada, hecho que atribuía a la fosforecencia del cristal. Los días siguientes
no hubo sol y dejó en un cajón la placa envuelta con papel negro y con la sal de Uranio
encima. Cuando sacó la placa fotográfica estaba velada, y no podía deberse a la
fosforescencia ya que no había sido expuesta al sol. La única explicación era que la sal
de uranio emitía una radiación muy penetrante. Sin saberlo Becquerel había descubierto
lo que Marie Curie llamaría más tarde radiactividad.
Curie junto a su esposo Pierre Curie, empezaron a estudiar el raro fenómeno que había
descubierto Becquerel. Estudiaron diversos minerales y se dieron cuenta de que otra
sustancia el torio, era "radiactiva", término de su invención. Demostraron que la
radiactividad no era resultado de una reacción química, sino una propiedad elemental del
átomo. El fenómeno de la radiactividad era característico de los núcleos de los átomos.
En 1898 descubren dos nuevas sutancias radiactivas: el radio y el polonio, mucho más
activas que el uranio. Pierre estudiaba las propiedades de la radiación, y Marie intentaba
obtener de los minerales las sustancias radiactivas con el mayor grado de pureza posible.
Pierre probó el radio sobre su piel, y el resultado fue una quemadura y una herida, pronto
el radio serviría para tratar tumores malignos. Era el comienzo de las aplicaciones
médicas que Mme. Curie daría a la radiactividad. En 1903 recibieron el premio Nobel de
física junto con Becquerel por el descubrimiento de la radiactividad natural.
Al poco tiempo murió Pierre Curie en un accidente debilitado como estaba por el radio.
Mme. Curie siguió trabajando y fue la primera mujer que ocupó un puesto en la
Universidad de la Sorbona en Paris. Siguió investigando junto a Ernest Rutherford, quien
encontró que la radiación que emitían las sustancias radiactivas, tenía tres componentes
que denominó:alfa, beta y gamma.
Mme. Curie siguió estudiando el fenómeno de la radiactividad durante toda su vida,
prestando especial atención a las aplicaciones médicas de la radiactividad junto con los
rayos X, recien descubiertos. Agotada, casi ciega, los dedos quemados y marcados por
su querido radio, Mme Curie murió a los 60 años de leucemia en 1934. Su hija Irene
continuó su trabajo con la misma pasión junto a su marido, con el que descubrió la
radiactividad artificial y por lo que recibieron el premio Nobel.
9.2.2 Decaimiento radiactivo
En la naturaleza, casi todos los núcleos atómicos son inestables. De las más de dos mil
variedades que se conocen, el 90 por ciento decae o se desintegra, y en ese proceso
emiten algún tipo de radiación, que conforme ha avanzado el conocimiento se le ha
clasificado, por ejemplo, en radiación alfa, beta o gamma, explican los especialistas del
Departamento de Física Experimental del IF-UNAM.
El decaimiento radiactivo es la manera en que un núcleo emite radiación de cualquier tipo,
principalmente en forma de partículas, y se transforma en otro diferente. Esta radiación es
la que los físicos registran y analizan, y gracias a su estudio se conocen detalles finos de
los núcleos atómicos y se avanza en el conocimiento acerca de la estructura atómica y
nuclear.
Desde el descubrimiento de la radiactividad alcanzada hace poco más de un siglo por
Bequerel y los esposos Pierre y Marie Curie, se conoce la desintegración del núcleo de
ciertos elementos con emisión de radiación, que forman otro elemento. Sin embargo, el
reto para los científicos universitarios era conocer y experimentar con un nuevo tipo de
decaimiento radioactivo, que aporte nuevo conocimiento básico sobre el tema.
En la actualidad son múltiples las aplicaciones que tienen las ciencias nucleares: se
irradian alimentos y medicinas, se esterilizan lo mismo materiales de laboratorio que obras
de arte, y se realizan diversos estudios médicos utilizando materiales radiactivos. Sin
embargo, persisten dudas fundamentales sobre cómo son los núcleos atómicos. Así,
mediante el desarrollo de un método llamado "de blanco grueso", María Esther Ortíz
Salazar y Efraín Chávez Lomelí han despejado una parte del camino dirigido a generar
nuevo conocimiento básico en ese terreno de la física experimental.
Propiedades fundamentales
El decaimiento radiactivo de un núcleo atómico es un proceso por el cual se emite una
partícula.
Hipótesis 1: Al producirse en los núcleos atómicos y dadas el corto alcance de las fuerzas
nucleares, diferentes núcleos no se interfieren entre sí y los sucesos de decaimiento
radiactivo pueden considerarse independientes entre sí.
Hipótesis 2: Otra hipótesis razonable es que la probabilidad de desintegración en un
intervalo diferencial dt es proporcional a la longitud del intervalo.
Hipótesis 3: Y si a las dos hipótesis anteriores se le añade la de una probabilidad
despreciable para la ocurrencia de más de una desintegración en el intervalo diferencial
dt, tendremos que se cumplen las tres hipótesis de un proceso de Poisson y por lo tanto
se puede suponer una distribución de probabilidad de Poisson para el decaimiento
radiactivo.
Al evaluar el comportamiento promedio para un gran número de puntos se puede
aprovechar hipótesis 2 y expresar el número de núcleos promedio que se desintegran por
unidad de tiempo como:
dN/ N = -λ(lamda)dt
donde λ (lamda)es el valor medio del número de desintegraciones por unidad de tiempo y
el signo negativo expresa que el número de núcleos padre disminuye con el tiempo.
La solución para la ecuación diferencial anterior es:
N = N(0)e − λt
9.2.3 Detectores de radiatividad
Puesto que la radiación ionizante en general no es perceptible por los sentidos, es
necesario valerse de instrumentos apropiados para detectar su presencia. Asimismo,
interesan su intensidad, su energía, o cualquier otra propiedad que ayude a evaluar sus
efectos. Se han desarrollado muchos tipos de detectores de radiación, algunos de los
cuales se van a describir aquí. Cada clase de detector es sensible a cierto tipo de
radiación y a cierto intervalo de energía. Así pues, es de primordial importancia
seleccionar el detector adecuado a la radiación que se desea medir. El no hacerlo puede
conducir a errores graves.
El diseño de los detectores está basado en el conocimiento de la interacción de las
radiaciones con la materia. Como ya sabemos, las radiaciones depositan energía en los
materiales, principalmente a través de la ionización y excitación de sus átomos. Además,
puede haber emisión de luz, cambio de temperatura, o efectos químicos, todo lo cual
puede ser un indicador de la presencia de radiación. Se van a describir los detectores
más comunes en las aplicaciones de la radiación, como son los de ionización de gas y los
de centelleo.
La mayoría de los detectores de radiación presentan un comportamiento similar:
1.La radiación entra en el detector e interacciona con los átomos de éste.
2.Fruto de esta interacción, la radiación cede toda o parte de su energía a los electrones
ligados de estos átomos.
3.Se libera un gran número de electrones de relativamente baja energía que son
recogidos y analizados mediante un circuito electrónico.
El tipo de material del detector depende de la clase de radiación a estudiar y de la
información que se busca obtener:
- Para detectar partículas alfa de desintegraciones radiactivas o partículas cargadas de
reacciones nucleares a baja (MeV) energía, basta con detectores muy finos, dado que el
recorrido máximo de estas partículas en la mayoría de los sólidos es típicamente inferior a
las 100 micras. En el caso de los electrones , como los emitidos en las desintegraciones
beta, se necesita un grosor para el detector de 0.1 a 1 mm. Sin embargo, para detectar
rayos gamma puede que un grosor de 5 cm resulte aún insuficiente para convertir estos
fotones tan energéticos (MeV o superior) en un pulso electrón.
- Para medir la energía de la radiación, debemos escoger un detector en el cual la
amplitud del pulso de salida sea proporcional a la energía de la radiación. Se debe elegir
un material en el que el número de electrones sea grande para evitar que posibles
fluctuaciones estadísticas afecten al valor de la energía.
- Para medir el tiempo en el que la radiación fue emitida, debemos seleccionar un material
en el que los electrones sean recogidos rápidamente en un pulso, siendo el numero de
éstos aquí menos importante.
- Para determinar el tipo de partícula (por ejemplo, en una reacción nuclear, en la que se
pueden generar una gran variedad de partículas), debemos elegir un material en el que la
masa o carga de la partícula de un efecto distintivo.
- Para medir el spin o la polarización de la radiación , debemos escoger un detector que
pueda separar distintos estados de polarización o spin.
- Si esperamos un ritmo de cuentas extremadamente alto, deberemos seleccionar un
detector que pueda recuperarse rápidamente de una radiación antes de poder contar la
siguiente. Para un ritmo de cuentas muy bajo, sin embargo, es más importante buscar
reducir el efecto de las radiaciones de fondo.
- Finalmente si estamos interesados en reconstruir la trayectoria de las radiaciones
detectadas, debemos decantarnos por un detector que sea sensible a la localización en la
que la radiación penetra.
9.2.4 Fisión y fusión nucleares
Fisión nuclear
La fisión es la división de un nucleu atómico pesado (Uranio, plutonio, etc.)en dos o más
fragmentos causado por el bombardeo de neutrones, con liberación de una enorme
cantidad de energía y varios neutrones.
Cuando la fisión tiene lugar en un átomo de Uranio 235se obserba su triple fenómeno;
- Aparace una cantidad de energía, elevada en 200MeV que traduce la perdida de masa.
- Los produntos de ruptura (300 o´400)son radiactivos. Su presencia expleca los efectos
de explosión de un artefacto nuclear.
- Cada nucleo fisionado emite 2 ó 3 neutrones que provocan el fenómeno de reacción en
cadena y explican la noción de la masa crítica.
Se observa el mismo fenómeno de fusión en el plotinio 239 (artificial) y en el Uranio 233
(artificial). Ambos se fabrican a partir del Torio. Los nucleos se denominan nucleos
flexibles.
Para que se produzca la fisión hace falta que el neutrón incidente reuna unas condiciones
determinadas. Para actuar sobre el Uranio 235 y 233 y el Plutonio 239, el neutron ha de
ser un neutron termicocuya energía es de la orden 1/40 eV, lo cual responde a una
velocidad de 2 Km/s. El Uranio 238es igualmente fisible pero con neitrones rápidos cuya
energía es 1MeV.
Fusión nuclear
La fusión de determinados núcleos de elementos ligeros es uno de los dos orígenes de
energía nuclear, siendo la otra, la antes citada.
En la fusión intervienen los isótopos de hidrógeno (deuterio, tritio). Cuando se fusionan los
nucleos de dichos isótopos se observa la aparición de energía que procede de la perdida
de de masa, de acuerdo con la relación de Einstein E=m.c2.
La fusión de los átomos ligeros presenta dificultades especiales tanto desde el punto de
vista teórico como del tecnológico. Esto ocurre por estar los nucleos cargados
positivamente.
La fusión y la fisión nuclear
Encontrar recursos energéticos casi inagotables, baratos y no contaminantes ha sido un
afán del hombre casi desde el primer momento.
El gran salto cuantivo lo dió el descubrimiento, hacia el año 1938-1939, es decir, la
separación del nucleo de un átomos en otros elementos , liberaba gran cantidad de
energía.
Desgraciadamente esta energía, a pesar de su rendimiento, es también altamente
peligrosa- recerdese que uno de el militar en Hiroshima y Nagasaki, y el desastre de
Chernobil-. La alternativa del futuro es la fusión nuclar. Las diferencias entre la fisión y la
fusión nuclear son;
Por la fusión nuclear, un nucleo pesado como el Uranio 235, es dividido generalmente en
dos nucleosmás ligeros debido a la colisión de un neutron (recordemos que un átomo se
compone de electrones, neutrones y protones). Como el neutron no tiene carga electrica
atraviesa facilmente el nucleo del Uranio. Al dividirse este, libera más neutrones que
colisionan con otros átomos de Uranio creando la conocida reacción en cadena de gran
poder radiactivo y energético. Esta reacción se produce a un ritmo muy acelerado en las
bombas nucleares, pero es controlado para usos pacíficos.
Por contra, la fusión es la unión de dos nucleos ligeros en uno más pesado, obteniéndose
del orden de cuatro veces más energía que en la fisión.
Mientras que la fisión nuclearse conoce y puede controlarse bastante bien, la fusión
plantea el siguiente gran inconveniente, que hace que continue en fase de estudio,
aunque entrando en el siglo XXI se espera resolver:
•Para que la reacción de la fusión sea posible hay que vencer la repulsión electroestática
entre dos nucleos igualmente cargados; esto es, al existir nucleos atómicos con igual
carga, y en virtud del principio de que las cargas iguales se repelen, hay que aplicar una
gran energía para conseguir la unión de las mismas.
•Esto se logra gracias al calor aplicando temperaturas de millones de grados. El problema
mencionado proviene de la dificultad de encontrar un reactor que aguante esa
temperatura.
•Con este calor se crea un nuevo estado de la materia, el plasma, en el que se dá un
absoluto desorden de iones y electrones.
Hay formas de conseguir la energía nuclear de fusión que se están experimentando
actualmente, el confinamiento magnético y el confinamiento lineal.
•Con el magnético se crea y se mantiene la reacción gracias a grandes cargas
magnéticas.
•Con el linel, el calentamiento se consigue con laser y el confinamiento del plasmacon la
propia inercia de la materia.
La investigación actual está inclinada más por el magnético, habiendose descubierto
recientemente un nuevo método para mantener la reacción, cambiando el campo
magnético de la forma cilíndrico a otra aproximadamente de forma de toro.
Podemos decir con orgullo que España se encuentra en los primeros puestos encuanto a
la investigación de la energía de fusión, disponiendo de prestigios científicos dedicados a
esta materia y con gran reconocimiento nacional.
La reacción de fusión se suele conseguir por la unión por la unión del tritio y el deuterio
(isótopos de hidrógeno) para conseguir la partícula X (alfa) logrando el calor necesario. El
deuterio se encuentra en un 0,15% en el hidrógeno, y el tritio se extra del litio, muy
agundante en el agua, por lo que no hay problemas en cuanto a estas materias primas.
Comparativamente, la energia de fusión proporciona más energía que la fisión. Por
ejemplo, medio kilo de hidrógeno (muy abundante en la naturaleza, ya que forma parte del
agua)produciría unos 35 millones de kilovatios hora.Por otro lado la fusión no contamina,
o al menos no tanto como la fisiónno existiendo peligro de radioactividad. La fisión por
contra requiere de una materia prima de dificil y costosa extración.
También se a hablado de fusión en frio, para evitar los problemas que ya hemos citado
con anterioridad.Este sistema lo propuso hace pocos años un importante científico, que
supondría un gigantesco avance en este campo.
Desgraciadamente, y como la inversión en los otros dos sistemas ha sido grandísima y
costaría mucho dinero cambiar los métodos de investigación a esta nueva vía, a parte de
las presiones de los científicos que ahora investigan, que vieron peligrar sus
subvenciones, al descubridor de la fusión en frío poco menos que se les lapidó, no
volviendose a oir hablar de él ni de su sistema.Científicos más objetivos consideran que
con ello se han perdido al menos cuarenta o cincuenta años en la investigación de la
fusión.
En cuanto a la utilidad de la energía de fusión, que es la que se da en el Sol para generar
el calor que nos permite vivir, podemos destacar primeramenteque sería una fuente casi
inagotable de electricidad. Paulatinamente se deberían ir sustituyendo los reactores de
fisión por los nuevos de fisión, evitandose así los problemas de radio actividad.
En un futuro no demasiado lejano incluso podrían instalarse estos reactores, como a hora
ocurre en la fisión, en submarinos , en naves espaciales, y también en aereonaves y
vehículos terrestres. Quizás se pueda llegar a tener en camiones, trenes, autobuses,…
con motores de fusión (¿quién sabe?).
Aparte de esto, tecnicamente, llegará a ser factible, habrá que contar de nuevo con los
intereses ecomómcos y políticos ( la industria del petroleo mueve anualmente billones de
pesetas, y los estados gana muchísimo através de los impuestos). Recordemos, por
ejemplo,el caso de aquel español que inventó un motor a base de agua hace algunos
años; sorprendentemente la noticia desapareció de los medios de comunicación en
cuestión de días (¿presiones económicas y políticas?).
Con todos estos acontecimientos cabe preguntarnos si de verdad podremos ver algún día
estos avances y beneficiarnos.como ciudadanos de a pie, con ellos.
Recientemente se ha logrado en el reactor español de fusión TJ-II, del CIEMAT, confinar
plasma a una temperatura similar a la del Sol. El objetivo de ese reactor no es conseguir
la fusión y generar electricidad, sino comprovar durante los proximos quince años el
comportamiento del plasma.
El TJ-II tiene un peso de sesenta toneladas y un diámetro de cinco metros, y funciona
calentando hidrógeno inyectado en su interior, gracias a una potencia electrica de un
millon de watios generados.
Hasta el momento se ha logrado en 120 ocasiones plasma, durando cada prueba
aproximadamente un segundo. El éxito de este experimento es un paso más en la
consecución de la esperada energía de fusión.
9.2.5 Aplicaciones de la radiactividad y la energía nuclear
La energía nuclear es la energía que se libera espontánea o artificialmente en las
reacciones nucleares. Sin embargo, este término engloba otro significado, el
aprovechamiento de dicha energía para otros fines como, por ejemplo, la obtención de
energía eléctrica, térmica y mecánica a partir de reacciones nucleares, y su aplicación,
bien sea con fines pacíficos o bélicos. Así, es común referirse a la energía nuclear no solo
como el resultado de una reacción sino como un concepto más amplio que incluye los
conocimientos y técnicas que permiten la utilización de esta energía por parte del ser
humano.
Estas reacciones se dan en los núcleos de algunos isótopos de ciertos elementos
químicos, siendo la más conocida la fisión del uranio-235 (235U), con la que funcionan los
reactores nucleares, y la más habitual en la naturaleza, en el interior de las estrellas, la
fusión del par deuterio-tritio (2H-3H). Sin embargo, para producir este tipo de energía
aprovechando reacciones nucleares pueden ser utilizados muchos otros isótopos de
varios elementos químicos, como el torio-232, el plutonio-239, el estroncio-90 o el polonio-
210 (232Th, 239Pu, 90Sr, 210Po; respectivamente).
Existen varias disciplinas y técnicas que usan de base la energía nuclear y van desde la
generación de electricidad en las centrales nucleares hasta las técnicas de análisis de
datación arqueológica (arqueometría nuclear), la medicina nuclear usada en los
hospitales, etc.
Los dos sistemas más investigados y trabajados para la obtención de energía
aprovechable a partir de la energía nuclear de forma masiva son la fisión nuclear y la
fusión nuclear. La energía nuclear puede transformarse de forma descontrolada, dando
lugar al armamento nuclear; o controlada en reactores nucleares en los que se produce
energía eléctrica, energía mecánica o energía térmica. Tanto los materiales usados como
el diseño de las instalaciones son completamente diferentes en cada caso.
Otra técnica, empleada principalmente en pilas de mucha duración para sistemas que
requieren poco consumo eléctrico, es la utilización de generadores termoeléctricos de
radioisótopos (GTR, o RTG en inglés), en los que se aprovechan los distintos modos de
desintegración para generar electricidad en sistemas de termopares a partir del calor
transferido por una fuente radiactiva.
La energía desprendida en esos procesos nucleares suele aparecer en forma de
partículas subatómicas en movimiento. Esas partículas, al frenarse en la materia que las
rodea, producen energía térmica. Esta energía térmica se transforma en energía
mecánica utilizando motores de combustión externa, como las turbinas de vapor. Dicha
energía mecánica puede ser empleada en el transporte, como por ejemplo en los buques
nucleares; o para la generación de energía eléctrica en centrales nucleares.
La principal característica de este tipo de energía es la alta calidad de la energía que
puede producirse por unidad de masa de material utilizado en comparación con cualquier
otro tipo de energía conocida por el ser humano, pero sorprende la poca eficiencia del
proceso, ya que se desaprovecha entre un 86 y 92% de la energía que se libera.
9.3 Otras formas de energía
fuentesde energía ?
• Energía nuclear
Energía liberada durante la fisión o fusión de núcleos atómicos. Las cantidades de
energía que pueden obtenerse mediante procesosnucleares superan con mucho a las que
pueden lograrse mediante procesos químicos, que sólo implican las regiones externas del
átomo.
La energía de cualquier sistema, ya sea físico, químico o nuclear, se manifiesta por su
capacidad de realizar trabajoo liberar calor o radiación. La energía total de un sistema
siempre se conserva, pero puede transferirse a otro sistema o convertirse de una forma a
otra.
• Energía cinética
Energía que un objeto posee debido a su movimiento. La energía cinética depende de la
masa y la velocidad del objeto según la ecuación
E = 1mv2
donde m es la masa del objeto y v2 la velocidad del mismo elevada al cuadrado. El valor
de E también puede derivarse de la ecuación
E = (ma)d
donde a es la aceleración de la masa m y des la distancia a lo largo de la cual se acelera.
Las relaciones entre la energía cinética y la energía potencial, y entre los conceptos de
fuerza, distancia, aceleración y energía, pueden ilustrarse elevando un objeto y dejándolo
caer.
Cuando el objeto se levanta desde una superficie se le aplica una fuerza vertical. Al actuar
esa fuerza a lo largo de una distancia, se transfiere energía al objeto. La energía asociada
a un objeto situado a determinada altura sobre una superficie se denomina energía
potencial. Si se deja caer el objeto, la energía potencial se convierte en energía cinética.
Véase Mecánica.
• Energía potencial
Energía almacenada que posee un sistema como resultado de las posiciones relativas de
sus componentes. Por ejemplo, si se mantiene una pelota a una cierta distancia del suelo,
el sistema formado por la pelota y la Tierratiene una determinada energía potencial; si se
eleva más la pelota, la energía potencial del sistema aumenta. Otros ejemplos de
sistemascon energía potencial son una cinta elástica estirada o dos imanes que se
mantienen apretados de forma que se toquen los polos iguales.
Para proporcionar energía potencial a un sistema es necesario realizar un trabajo. Se
requiere esfuerzo para levantar una pelota del suelo, estirar una cinta elástica o juntar dos
imanes por sus polos iguales. De hecho, la cantidad de energía potencial que posee un
sistema es igual al trabajo realizado sobre el sistema para situarlo en cierta configuración.
La energía potencial también puede transformarse en otras formas de energía. Por
ejemplo, cuando se suelta una pelota situada a una cierta altura, la energía potencial se
transforma en energía cinética.
Fuentes Renovables
• Energía Hidráulica
Ya desde la antigüedad, se reconoció que el agua que fluye desde un nivel superior a otro
inferior posee una determinada energía cinética susceptible de ser convertida en trabajo,
como demuestran los miles de molinos que a lo largo de la historia fueron construyéndose
a orillas de los ríos.
[pic]
Más recientemente, hace más de un siglo, se aprovecha la energía hidráulica para
generar electricidad, y de hecho fue una de las primeras formas que se emplearon para
producirla.
El aprovechamiento de la energía potencial del aguapara producir energía eléctrica
utilizable, constituye en esencia la energía hidroeléctrica. Es por tanto, un recurso
renovable y autóctono. El conjunto de instalaciones e infraestructura para aprovechar este
potencial se denomina central hidroeléctrica.
Hoy en día, con los problemasmedioambientales, se ven las cosas desde otra
perspectiva. Esto ha hecho que se vayan recuperando infraestructuras abandonadas
dotándolas de nuevos equipos automatizados y turbinas de alto rendimiento. En
consecuencia, el impacto ambientalno es más del que ya existía o por lo menos inferior al
de una gran central. A estas instalaciones, con potencia inferior a 5.000KW se les
denomina minihidráulicas.
Las minicentrales hidroeléctricas están condicionadas por las características del lugar de
emplazamiento. La topografía del terreno influye en la obra civil y en la selección del tipo
de máquina.
• Centrales de aguas fluyentes
Aquellas instalaciones que mediante una obra de toma, captan una parte del caudal del
río y lo conducen hacia la central para su aprovechamiento, para después devolverlo al
cauce del río.
• Centrales de pie de presa
Son los aprovechamientos hidroeléctricos que tienen la opción de almacenar las
aportaciones de un río mediante un embalse. En estas centrales se regulan los caudales
de salida para utilizarlos cuando se precisen
• Centrales de canal de riego o abastecimiento
[pic]
Se pueden distinguir dos tipos:
• Con desnivel existente en el propio canal
Se aprovecha mediante la instalación de una tubería forzada, que conduce el agua a la
central, devolviéndola posteriormente al curso normal del canal.
• Con desnivel existente entre el canal y el curso de un río cercano
En este caso la central se instala cercana al río y se aprovechan las aguas excedentes en
el canal.
A la hora de realizar un proyectode una minicentral hidroeléctrica y dependiendo del tipo
por su emplazamiento, la determinación del caudal y la altura de salto determinará la
potencia a instalar, así como, el tipo de miniturbina.
Existen varios tipos de miniturbinas:
De reacción, que aprovecha la energía de presión del agua en energía cinética en el
estator, tanto en la entrada como en la salida, estas aprovechan la altura disponible hasta
el nivel de desagüe.
Kaplan: se componen básicamente de una cámara de entrada que puede ser abierta o
cerrada, un distribuidor fijo, un rodete con cuatro o cinco palas fijas en forma de hélice de
barco y un tubo de aspiración.
[pic]
Francis: caracterizada por que recibe el flujo de agua en dirección radial, orientándolo
hacia la salida en dirección axial.
[pic]
Se compone de:
Un distribuidor que contiene una serie de álabes fijos o móviles que orientan el agua hacia
el rodete. Un rodete formado por una corona de paletas fijas, torsionadas de forma que
reciben el agua en dirección radial y lo orientan axialmente. Una cámara de entrada, que
puede ser abierta o cerrada de forma espiral, para dar una componente radial al flujo de
agua. Un tubo de aspiración o de salida de agua, que puede ser recto o acodado y se
encarga de mantener la diferencia de presiones necesaria para el buen funcionamiento de
la turbina.
De flujo cruzado: también conocida como de doble impulsión, constituida principalmente
por un inyector de sección rectangular provisto de un álabe longitudinal que regula y
orienta el caudal que entra en la turbina, y un rodete de forma cilíndrica, con múltiples
palas dispuestas como generatrices y soldadas por los extremos a discos terminales.
El caudal que entra en la turbina es orientado por el álabe del inyector, hacia las palas del
rodete, produciendo un primer impulso. Posteriormente, atraviesa el interior del rodete y
proporciona un segundo impulso, al salir del mismo y caer por el tubo de aspiración.
De acción, que aprovecha la energía de presión del agua para convertirla en energía
cinética en el estator, estas aprovechan la altura disponible hasta el eje de la turbina.
Pelton: Consta de un disco circular que tiene montados en su periferia unas paletas en
forma de doble cuchara y de un inyector que dirige y regula el chorro de agua que inciden
sobre las cucharas, provocando el movimiento de giro de la turbina.
[pic]
• Energía Solar
Energía radiante producida en el Sol como resultado de reacciones nucleares de fusión .
Llega a la Tierraa través del espacio en cuantos de energía llamados fotones, que
interactúan con la atmósfera y la superficie terrestres. La intensidad de la radiación solar
en el borde exterior de la atmósfera, si se considera que la Tierra está a su distancia
promedio del Sol, se llama constante solar, y su valor medio es 1,37 × 106 erg/s/cm2, o
unas 2 cal/min/cm2. Sin embargo, esta cantidad no es constante, ya que parece ser que
varía un 0,2% en un periodo de 30 años. La intensidad de energía real disponible en la
superficie terrestre es menor que la constante solar debido a la absorción y a la dispersión
de la radiación que origina la interacción de los fotones con la atmósfera.
La intensidad de energía solar disponible en un punto determinado de la Tierra depende,
de forma complicada pero predecible, del día del año, de la hora y de la latitud. Además,
la cantidad de energía solar que puede recogerse depende de la orientación del
dispositivo receptor.
[pic]
• Energía Solar Térmica
Un sistema de aprovechamiento de la energía solar muy extendido es el térmico. El medio
para conseguir este aporte de temperatura se hace por medio de colectores.
El colector es una superficie, que expuesta a la radiación solar, permite absorber su calor
y transmitirlo a un fluido. Existen tres técnicas diferentes entre sí en función de la
temperatura que puede alcanzar la superficie captadora. De esta manera, los podemos
clasificar como:
Baja temperatura, captación directa, la temperatura del fluido es por debajo del punto de
ebullición .
Media temperatura, captación de bajo índice de concentración, la temperatura del fluido
es más elevada de 100ºC .
Alta temperatura, captación de alto índice de concentración, la temperatura del fluido es
más elevada de 300ºC .
• Energía Solar Fotovoltática
El sistema de aprovechamiento de la energía del Sol para producir energía eléctrica se
denomina conversión fotovoltaica.
Las células solares están fabricadas de unos materialescon unas propiedades
específicas, denominados semiconductores.
Para entender el funcionamiento de una célula solar, debemos de entender las
propiedades de estos semiconductores.
Propiedades de los semiconductores.
Los electrones que se encuentran orbitando al rededor del núcleo atómico no pueden
tener cualquier energía, solamente unos valores determinados, que son denominados,
niveles energéticos, a los que se pone nombre: 1s, 2s, 2p, 3s, 3p.
Las propiedades químicas de los elementos están determinadas por el número de
electrones en su última capa y por electrones que faltan para completarla. En el silicio,
material que se usa para la construcción de una célula solar, en su última capa, posee
cuatro electrones y faltan otros cuatro para completarla.
Cuando los átomos de silicio se unen a otros, comparten los electrones de las últimas
capas con la de los átomos vecinos, formando lo que se denomina enlace covalente.
Estas agrupaciones dan lugar a un sólido de estructura cristalina.
De la forma, que los electrones de un átomo no pueden tener cualquier energía, los
electrones de un cristal tampoco pueden tomar cualquier energía.
Teniendo en cuenta que en el átomo sus propiedades se determinan en la última capa,
ahora son agrupaciones de capas, llamadas bandas de energía, y que definen las
propiedades electrónicas de un cristal.
Las dos últimas capas ocupadas por electrones reciben el nombre de banda de
conducción y banda de valencia. Estas están separadas por una energía denominada
gap.
Para poderentender esto describiremos los tipos de materiales existentes, eléctricamente
hablando:
• Conductores, disponen de unos electrones de valencia poco ligados al núcleo y que
pueden moverse con facilidad dentro de la red cristalina respondiendo a un estímulo
externo.
• Semiconductores, sus electrones de valencia están más ligados a sus núcleos que los
conductores, pero basta suministrar una pequeña cantidad de energía para que se
comporten igual que estos.
• Aislantes, los electrones de valencia están fuertemente ligados al núcleo y la energía a
suministrar para poder desprenderse del átomo sería excesivamente grande.
Llegando a este punto, podemos decir que a cierta temperatura, algunos electrones
tendrán energía suficiente para desligarse de los átomos, a estos electrones libres se les
denomina "electrones" y se les asocia con los niveles energéticos de la banda de
conducción.
A los enlaces que han dejado vacíos se les denomina "huecos"; para entender mejor este
racionamiento diremos que los "huecos" se comportan de la misma forma que partículas
con carga positiva.
Si pusiéramos un cristal de estas características, lo único que conseguiríamos sería
calentar el cristal, ya que los electrones se moverían dentro del propio cristal, se
generarían pares electron-hueco, que constan de un electrón que se mueve y deja un
hueco, a ese hueco irá otro electrón próximo, generando otro hueco y así sucesivamente.
Para generar una corriente eléctrica hace falta un campo magnético, que se consigue con
la unión de dos cristales semiconductores, uno de tipo "p" y otro de tipo "n".
Estos semiconductores se obtienen con un cristal semiconductor muy puro,
introduciéndoles impurezas (dopado).
Una de las regiones se dopa con fósforo, que tiene cinco electrones de valencia, uno más
que el silicio, de forma que esta región dopada muestrauna afinidad por los electrones
mayor que el silicio puro. A esta región se le denomina de tipo n.
La otra región de dopa con boro, que tiene tres electrones de valencia, uno menos que el
silicio, de forma que esta región muestra una afinidad por los electrones inferior que el
silicio puro. A esta región se le denomina de tipo p.
De esta forma, teniendo un cristal semiconductor de silicio formado por una región de tipo
p y otra región de tipo n, se consigue una diferencia de potencial que hace que los
electrones tengan menos energía en la zona n que en la zona p. Por esta razón los
electrones son enviados a la zona n y los huecos a la zona p.
Cuando inciden fotones sobre este tipo de semiconductor, unión p-n, es cuando entonces
se rompen algunos enlaces, generándose de esta forma pares electrón-hueco.
Las células solares, para poder suministrar energía al exterior, van provistas de unos
dedos o mallas de metalización frontal, que consisten en partes metálicas por la que
circula al exterior la corriente eléctrica generada.
Si esta generación se produce a una distancia de la unión menor que lo que se denomina
longitud de difusión, estos pares serán separados por el fuerte campo eléctrico que existe
en la unión, moviéndose el electrón hacia la zona n y el hueco hacia la zona p. De esta
forma se da una corriente de la zona n a la zona p.
Si estos electrones consiguen ser recolectados por la malla de metalización, obtendremos
energía eléctrica
Si la longitud de difusión es muy corta, el par electrón-hueco, se recombinará, lo cuál dará
origen a calor.
Por supuesto esto siempre que la célula esté iluminada.
De todas formas no todos los fotones incidentes generan electricidad, hay factores que
hacen que existan pérdidas en esta generación.
• Energía de fotones incidentes, hay veces que los fotones incidentes no disponen de la
energía necesaria para romper un enlace covalente y crear un par electrón-hueco, y otras,
el fotón tiene demasiada energía, lo cual se disipa en forma de calor.
• Recombinación, es el hecho de que los electrones liberados ocupen un hueco próximo a
ellos.
• Reflexión, parte de la radiación incidente en la célula es reflejada.
• Malla de metalización, estos contactos eléctricos en el exterior de la célula, disminuye la
superficie de captación.
• Resistencia serie, es el efecto Joule producido por el paso de electrones a través del
silicio, la malla de metalización y resistencia de los contactos de conexión eléctricas al
circuito exterior.
• Resistencia paralelo, tiene origen en las imperfecciones de la unión p-n, creando fugas
de corriente.
Estas células conexionadas entre sí, y montadas en un módulo o panel es lo que
llamamos panel solar. Cuyas características electricas vienen determinadas por el numero
y forma de conexión de las células.
Conexión serie, conexionadas de forma que el lado p sea conectado con el lado n de otra
célula, así sucesivamente, quedando cada extremo con un lado n y otro p.
Las tensiones generadas de cada célula se suman, la corriente es el valor de una célula.
Conexión paralelo, conexionados todos los lados de tipo p, por un lado, y los de tipo n por
otro.
La tensión generada es la de una célula y la corriente es la suma de todas.
Conexión mixta, es la conexión en serie y en paralelo de las células.
Donde la tensión generada es la suma de las tensiones de células en serie y la corriente
es la suma de todas las células en paralelo.
Itotal = I x número de celulas en paralelo
Vtotal = V x número de células en serie
Existen varios tipos de paneles fotovoltaicos, que se diferencian bien por su tecnología de
fabricación de células o por su aplicación.
• Silicio monocristalino
• Silicio policristalino
• Silicio amorfo
• Policristalinos de lámina delgada
• Paneles para el espacio
• Sulfuro de cadmio y sulfuro de cobre
• Teluro de cadmio
• Seleniuro de cobre e indio
• Arseniuro de galio o de concentración
• Bifaciales
• Energía Geotérmica
Nuestro planeta guarda una enorme cantidad de energía en su interior. Un volcán o un
geíser es una buena muestra de ello.
Son varias las teorías que tratan de explicar las elevadas temperaturas del interior de la
Tierra. Unas sostienen que se debe a las enormes presiones existentes bajo la corteza
terrestre; otras suponen que tienen origen en determinados procesos radiativos internos;
por último, hay una teoría que lo atribuye a la materia incandescente que formó nuestro
planeta.
Diversos estudios científicos realizados en distintos puntos de la superficie terrestre han
demostrado que, por término medio, la temperatura interior de la Tierra aumenta 3ºC cada
100m. de profundidad.
Este aumento de temperatura por unidad de profundidad es denominado gradiente
geotérmico.
Se supone que variará cuando alcancen grandes profundidades, ya que en el centro de la
Tierra se superarían los 20.000ºC, cuando en realidad se ha calculado que es,
aproximadamente, de 6.000ºC.
La forma más generalizada de explotarla, a excepción de fuentes y baños termales,
consiste en perforar dos pozos, uno de extracción y otro de inyección.
En el caso de que la zona esté atravesada por un acuífero se extrae el agua caliente o el
vapor, este se utiliza en redes de calefacción y se vuelve a inyectar, en el otro caso se
utiliza en turbinas de generación de electricidad.
En el caso de no disponer de un acuífero, se suele proceder a la fragmentación de las
rocascalientes y a la inyección de algún fluido.
Es difícil el aprovechamiento de esta energía térmica, ocasionado por el bajo flujo de
calor, debido a la baja conductividad de los materiales que la constituyen; pero existen
puntos en el planeta que se producen anomalías geotérmicas, dando lugar a gradientes
de temperatura de entre 100 y 200ºC por kilómetro, siendo estos puntos aptos para el
aprovechamiento de esta energía.
Tipos:
• Hidrotérmicos, tienen en su interior de forma natural el fluido caloportador, generalmente
agua en estadolíquido o en vapor, dependiendo de la presión y temperatura. Suelen
encontrarse en profundidades comprendidas entre 1 y 10 km.
•
• Geopresurizados, son similares a los hidrotérmicos pero a una mayor profundidad,
encontrándose el fluido caloportador a una mayor presión, unos 1000 bares y entre 100 y
200ºC, con un alto grado de salinidad, generalmente acompañados de bolsas de gas y
minerales disueltos.
•
• [pic]
• De roca caliente, son formaciones rocosas impermeables y una temperatura entre 100 y
300ºC, próximas a bolsas magmáticas.
•
• Energía Eólica
La fuente de energía eólica es el viento, o mejor dicho, la energía mecánica que, en forma
de energía cinética transporta el aireen movimiento. El viento es originado por el desigual
calentamiento de la superficie de nuestro planeta, originando movimientos convectivos de
la masa atmosférica.
La Tierra recibe una gran cantidad de energía procedente del Sol. Esta energía, en
lugares favorables, puede ser del orden de 2.000 Kwh/m2 anuales. El 2 por ciento de ella
se transforma en energía eólica con un valor capaz de dar una potencia de 10E+11
Gigavatios.
En la antigüedad no se conocían estos datos, pero lo que sí es cierto, es que
intuitivamente conocían el gran potencial de esta energía.
Las formas de mayor utilización son las de producir energía eléctrica y mecánica, bien sea
para autoabastecimiento de electricidad o bombeo de agua. Siendo un aerogenerador los
que accionan un generador eléctrico y un aeromotor los que accionan dispositivos, para
realizar un trabajo mecánico.
Partes de un aerogenerador:
• Cimientos, generalmente constituidos por hormigón en tierra, sobre el cual se atornilla la
torre del aerogenerador.
• Torre, fijada al suelo por los cimientos, proporciona la altura suficiente para evitar
turbulencias y superar obstáculos cercanos; la torre y los cimientos son los encargados de
transmitir las cargas al suelo.
• Chasis, es el soporte donde se encuentra el generador, sistema de frenado, sistema de
orientación, equipos auxiliares (hidráulico), caja de cambio, etc. Protege a estos equipos
del ambiente y sirve, a su vez, de aislante acústico.
• El buje, pieza metálica de fundición que conecta las palas al eje de transmisión.
• Las palas, cuya misión es la de absorber energía del viento; el rendimiento del
aerogenerador depende de la geometría de las palas, interviniendo varios factores:
•
o Longitud
o Perfil
o Calaje
o Anchura
Sistemas de un aerogenerador:
• Orientación, mantiene el rotor cara al viento, minimizando los cambios de dirección del
rotor con los cambios de dirección de viento; Estos cambios de dirección provocan
pérdidas de rendimiento y genera grandes esfuerzos con los cambios de velocidad.
• Regulación, controla la velocidad del rotor y el par motor en el eje del rotor, evitando
fluctuaciones producidas por la velocidad del viento.
• Transmisión, utilizados para aumentar la velocidad de giro del rotor, para poder accionar
un generador de corriente eléctrica, es un multiplicador, colocado entre el rotor y el
generador.
• Generador, para la producción de corriente continua (DC) dinamo y para la producción
de corriente alterna (AC) alternador, este puede ser síncrono o asíncrono.
[pic][pic][pic][pic]
• Energía del Mar
Los mares y los océanos son inmensos colectores solares, de los cuales se puede extraer
energía de orígenes diversos.
• La radiación solar incidente sobre los océanos, en determinadas condiciones
atmosféricas, da lugar a los gradientes térmicos oceánicos (diferencia de temperaturas) a
bajas latitudes y profundidades menores de 1000 metros.
• La iteración de los vientos y las aguas son responsables del oleaje y de las corrientes
marinas.
• La influencia gravitacional de los cuerpos celestes sobre las masas oceánicas provoca
mareas.
Energía de las mareas:
La energía estimada que se disipa por las mareas es del orden de 22000 TWh. De esta
energía se considera recuperable una cantidad que ronda los 200 TWh.
El obstáculo principal para la explotación de esta fuente es el económico. Los costes de
inversión tienden a ser altos con respecto al rendimiento, debido a las bajas y variadas
cargas hidráulicas disponibles. Estas bajas cargas exigen la utilización de grandes
equipos para manejar las enormes cantidades de agua puestas en movimiento. Por ello,
esta fuente de energía es sólo aprovechable en caso de mareas altas y en lugares en los
que el cierre no suponga construcciones demasiado costosas.
La limitación para la construcción de estas centrales, no solamente se centra en el mayor
coste de la energía producida, si no, en el impacto ambiental que generan.
La mayor central mareomotriz se encuentra en el estuario del Rance (Francia). En nuestro
país hay una central mareomotriz en Península de Valdés ( Chubut ) .
[pic]
Energía térmica oceánica
La explotación de las diferencias de temperatura de los océanos ha sido propuesta
multitud de veces, desde que d’Arsonval lo insinuara en el año 1881, pero el más
conocido pionero de esta técnica fue el científico francés George Claudi, que invirtió toda
su fortuna, obtenida por la invención del tubo de neón, en una central de conversión
térmica.
La conversión de energía térmica oceánica es un método de convertir en energía útil la
diferencia de temperatura entre el agua de la superficie y el agua que se encuentra a 100
m de profundidad. En las zonas tropicales esta diferencia varía entre 20 y 24 ºC. Para el
aprovechamiento es suficiente una diferencia de 20ºC.
Las ventajas de esta fuente de energía se asocian a que es un salto térmico permanente
y benigno desde el punto de vista medioambiental. Puede tener ventajas secundarias,
tales como alimentos y agua potable, debido a que el agua fría profunda es rica en
sustancias nutritivas y sin agentes patógenos.
Las posibilidades de esta técnica se han potenciado debido a la transferencia de
tecnología asociada a las explotaciones petrolíferas fuera de costa. El
desarrollotecnológico de instalación de plataformas profundas, la utilización de materiales
compuestos y nuevas técnicas de unión harán posible el diseño de una plataforma, pero
el máximo inconveniente es el económico.
Existen dos sistemas para el aprovechamiento de esta fuente de energía:
El primero consiste en utilizar directamente el agua de mar en un circuito abierto,
evaporando el agua a baja presión y así mover una turbina. El departamento de energía
americano (DOE) está construyendo un prototipo de 165 kW en las islas Hawaii, con él se
pretende alcanzar la experiencia necesaria para construir plantas de 2 a 15 MW.
El segundo consiste en emplear un circuito cerrado y un fluido de baja temperatura de
ebullición (amoniaco, freón, propano)que se evaporan en contacto con el agua caliente de
la superficie. Este vapor mueve un turbogenerador, se condensa con agua fría de las
profundidades y el fluido queda dispuesto de nuevo para su evaporación.
El rendimiento de este sistema es su bajo rendimiento, sobre un 7%, esto es debido a la
baja temperatura del foco caliente y la poca diferencia de temperatura entre el foco frío y
caliente. Además es preciso realizar un coste extra de energía, empleado para el bombeo
de agua fría de las profundidades para el condensado de los fluidos.
Energía de las olas
Las olas del mar son un derivado terciario de la energía solar. El calentamiento de la
superficie terrestre genera viento, y el viento genera las olas. Únicamente el 0.01% del
flujo de la energía solar se transforma en energía de las olas. Una de las propiedades
características de las olas es su capacidad de desplazarse a grandes distancias sin
apenas pérdida de energía. Por ello, la energía generada en cualquier parte del océano
acaba en el borde continental. De este modo la energía de las olas se concentra en las
costas, que totalizan 336000 km de longitud. La densidadmedia de energía es del orden
de 8 kW/m de costa. En comparación, las densidades de la energía solar son del orden de
300 W/m2. Por tanto, la densidad de energía de las olas es, en un orden de magnitud,
mayor que la que los procesos que la generan. Las distribuciones geográficas y
temporales de los recursos energéticos de las olas están controladas por los sistemas de
viento que las generan (tormentas, alisios, monzones).
La densidad de energía disponible varía desde las más altas del mundo, entre 50-60
kW/m en Nueva Zelanda, hasta el valor medio de 8 kW/m.
[pic]Los diseños actuales de mayor potencia se hallan a 1 Mwe de media, aunque en
estado de desarrollo.
La tecnología de conversión de movimiento oscilatorio de las olas en energía eléctrica se
fundamenta en que la ola incidente crea un movimiento relativo entre un absorbedor y un
punto de reacción que impulsa un fluido a través del generador.
La potencia instalada en operación en el mundo apenas llega al Mwe. La mayor parte de
las instalaciones lo son de tierra. Los costes fuera de la costa son considerablemente
mayores. En el momento actual, la potencia instalada de los diseños más modernos varía
entre 1 y 2 MW. Pero todos los diseños deben considerarse experimentales.
De los sistemas propuestos, para aprovechar la energía de las olas, se puede hacer una
clasificación, los que se fijan a la plataforma continental y los flotantes, que se instalan en
el mar.
Uno de los primeros fue el convertidor noruego Kvaerner, cuyo primer prototipo se
construyó en Bergen en 1985. Consistente en un tubo hueco de hormigón, de diez metros
de largo, dispuesto verticalmente en el hueco de un acantilado. Las olas penetran por la
parte inferior del cilindro y desplazan hacia arriba la columna de aire, lo que impulsa una
turbina instalada en el extremo superior del tubo. Esta central tiene una potencia de 500
kW y abastece a una aldea de cincuenta casas.
El pato de Salter , que consiste en un flotador alargado cuya sección tiene forma de pato.
La parte más estrecha del flotador se enfrenta a la ola con el fin de absorber su
movimiento lo mejor posible. Los flotadores giran bajo la acción de las olas alrededor de
un eje cuyo movimiento de rotación acciona una bomba de aceite que se encarga de
mover una turbina.
La dificultad que presenta este sistema es la generación de electricidad con los lentos
movimientos que se producen.
Balsa de Cockerell, que consta de un conjunto de plataformas articuladas que reciben el
impacto de las crestas de las olas. Las balsas ascienden y descienden impulsando un
fluido hasta un motor que mueve un generador por medio de un sistema hidráulico
instalado en cada articulación.
Rectificador de Russell, formado por módulos que se instalan en el fondo del mar,
paralelos al avance de las olas. Cada módulo consta de dos cajas rectangulares, una
encima de la otra. El agua pasa de la superior a la inferior a través de una turbina.
Boya de Nasuda, consistente en un dispositivo flotante donde el movimiento de las olas
se aprovecha para aspirar e impulsar aire a través de una turbina de baja presión que
mueve un generador de electricidad.
[pic]
• Biomasa y R.S.U.
La más amplia definición de BIOMASA sería considerar como tal a toda la materia
orgánica de origen vegetal o animal, incluyendo los materiales procedentes de su
transformación natural o artificial. Clasificándolo de la siguiente forma:
[pic]Biomasa natural, es la que se produce en la naturaleza sin la intervención humana.
Biomasa residual, que es la que genera cualquier actividad humana, principalmente en los
procesos agrícolas, ganaderos y los del propio hombre, tal como, basuras y aguas
residuales.
[pic]
Biomasa producida, que es la cultivada con el propósito de obtener biomasa
transformable en combustible, en vez de producir alimentos, como la caña de azúcar en
Brasil, orientada a la producción de etanol para carburante.
[pic]
Desde el punto de vista energético, la biomasa se puede aprovechar de dos maneras;
quemándola para producir calor o transformándola en combustible para su mejor
transporte y almacenamiento la naturaleza de la biomasa es muy variada, ya que
depende de la propia fuente, pudiendo ser animal o vegetal, pero generalmente se puede
decir que se compone de hidratos de carbono, lípidos y prótidos. Siendo la biomasa
vegetal la que se compone mayoritariamente de hidratos de carbono y la animal de lípidos
y prótidos.
La utilización con fines energéticos de la biomasa requiere de su adecuación para
utilizarla en los sistemas convencionales.
Estos procesos pueden ser:
• Físicos, son procesos que actúan físicamente sobre la biomasa y están asociados a las
fases primarias de transformación, dentro de lo que puede denominarse fase de
acondicionamiento, como, triturado, astillado, compactado e incluso secado.
• Químicos, son los procesos relacionados con la digestión química, generalmente
mediante hidrólisis pirólisis y gasificación.
• Biológicos, son los llevados a cabo por la acción directa de microorganismos o de sus
enzimas, generalmente llamado fermentación. Son procesos relacionados con la
producción de ácidos orgánicos, alcoholes, cetonas y polímeros.
• Termoquímicos, están basados en la transformación química de la biomasa, al
someterla a altas temperaturas (300ºC - 1500ºC). Cuando se calienta la biomasa se
produce un proceso de secado y evaporación de sus componentes volátiles, seguido de
reacciones de crakeo o descomposición de sus moléculas, seguidas por reacciones en la
que los productosresultantes de la primera fase reaccionan entre sí y con los
componentes de la atmósfera en la que tenga lugar la reacción, de esta forma se
consiguen los productos finales.
Según el control de las condiciones del proceso se consiguen productos finales diferentes,
lo que da lugar a los tres procesos principales de la conversión termoquímica de la
biomasa:
• Combustión: Se produce en una atmósfera oxidante, de aire u oxígeno, obteniendo
cuando es completa, dióxido de carbono, agua y sales minerales (cenizas), obteniendo
calor en forma de gases calientes.
• Gasificación: Es una combustión incompleta de la biomasa a una temperatura de entre
600ºC a 1500ºC en una atmósfera pobre de oxígeno, en la que la cantidad disponible de
este compuesto está por debajo del punto estequiométrico, es decir, el mínimo necesario
para que se produzca la reacción de combustión. En este caso se obtiene principalmente
un gas combustible formado por monóxido y dióxido de carbono, hidrógeno y metano.
• Pirólisis: Es el proceso en la descomposición térmica de la biomasa en ausencia total de
oxígeno.
En procesos lentos y temperaturas de 300ºC a 500ºC el producto obtenido es carbón
vegetal, mientras que en procesos rápidos (segundos) y temperaturas entre 800ºC a
1200ºC se obtienen mezclas de compuestos orgánicos de aspectos aceitosos y de bajo
pH, denominados aceites de pirólisis.
Pudiéndose obtener combustibles:
• Sólidos, Leña, astillas, carbón vegetal
• Líquidos, biocarburantes, aceites, aldehidos, alcoholes, cetonas, ácidos orgánicos...
Gaseosos, biogas, hidrógeno .
-----------------------
103