revista veritas

27

Upload: diefir

Post on 08-Jun-2015

656 views

Category:

Documents


3 download

TRANSCRIPT

Page 1: Revista Veritas
Page 2: Revista Veritas

VERITAS

Editor: Jaime Villalobos Profesor de Física Moderna de la

Universidad Nacional [email protected]

Director: Luis Felipe García Estudiante de Ingeniería Industrial

Código 200665. Grupo 8, Numero 13 [email protected]

Diseño: John Gamboa Estudiante de Ingeniería Industrial

Código 200664. Grupo 8, Numero 12 [email protected]

Revisión: Miguel Andrés Garzón

Estudiante de Ingeniería Industrial Código 200667. Grupo 8, Numero 14

[email protected]

Ajustes: Eder Mauricio Abello Estudiante de Ingeniería Electrónica Código 261366. Grupo 8, Numero 1

[email protected]

Investigadores

Cristian Camilo Higuera Estudiante de Ingeniería Electrónica Código 261399. Grupo 8, Numero 12

[email protected]

Rodrigo Salamanca Estudiante de Ingeniería Industrial

Código 200627. Grupo 8, Numero 37 [email protected]

Juan Diego Fique Estudiante de Ingeniería Electrónica Código: 261388. Grupo 8, Numero –

[email protected]

UNIVERSIDAD NACIONAL DE COLOMBIA FACULTAD DE INGENIERÍA

2008

PRIMERA EDICIÓN

EDITORIAL

La revista “Veritas” es un trabajo realizado por los

estudiantes de la facultad de Ingeniería de la Universidad

Nacional de Colombia, elaborado por medio de la estrategia

de aprendizaje “Método Lea” dirigido por el profesor Jaime

Villalobos cuyo objetivo es reforzar las técnicas de

escritura adquiridas por los alumnos a lo largo de sus

estudios. Los artículos presentados a continuación no tiene

una temática específica, cada autor escogió el enfoque de

acuerdo a sus gustos, sus conocimientos y sus aplicaciones,

enfocándose en ideas y conceptos aprendidos a lo largo del

curso de Física Moderna.

Debido a que no se realizó ningún tipo de investigación

científica, absolutamente todos los artículos son trabajos

de revisión bibliográfica (Review). Cada escritor realizó

una labor de consulta entre revistas de divulgación

científica, libros, enciclopedias, entre otros, buscando que

la información presentada fuera la mas veraz posible.

Esperamos que el lector no tome estos escritos como un

trabajo de aprendices, sino como un medio del cual se

puede extraer mucha información y aprender muchos

conceptos acerca de una ciencia tan amplia como lo es la

Física, cuestionándose su manera de percibir el universo

que lo rodea. Todos los autores declaramos que la

redacción de nuestros artículos es completamente

propia; los documentos utilizados como guía se

encuentran referenciados al final del respectivo

artículo.

Autores de la revista Veritas

Page 3: Revista Veritas

INDICE

1. EL BING BANG, LA PREGUNTA ACERCA DEL ORIGEN DEL

UNIVERSO (MIGUEL ANDRÉS GARZÓN) 4

2. IDEAS SOBRE EL UNIVERSO (EDER ABELLO) 7

3. ALBERT EINSTEIN Y LA REVOLUCION DE LA FISICA (LUIS

FELIPE GARCÍA) 10

4. GPS Y RELATIVIDAD: APLICACIONES Y CONSECUENCIAS

(JOHN E. GAMBOA) 13

5. DE LA CUANTIZACIÓN DE LA ENERGÍA A LA MECÁNICA

CUÁNTICA (CHRISTIAN C. HIGUERA) 17

6. DIFRACCIÓN DE RAYOS X (RODRIGO SALAMANCA) 20

7. LA VIDA DE LAS ESTRELLAS

(JUAN DIEGO FIQUE RAMIREZ) 25

Page 4: Revista Veritas

4

EL BIG BANG, LA PREGUNTA ACERCA DEL ORIGEN DEL

UNIVERSO

Por lo general al tratar de proponer una respuesta para resolver alguna pregunta formulada por la curiosidad humana se

busca ir al fondo de la explicación científica, para responder a la pregunta por el origen del universo se han dado algunas

luces no muy verosímiles ni claramente evidentes acerca de lo que pudo haber pasado en ese tiempo, si eventualmente

sucedió, en realidad aunque las teorías científicas parezcan claramente sustentadas matemáticamente, con el correr del

tiempo se verán siendo atacadas por factores que se dejaron pasar o que simplemente no se conocían entonces, y que

pondrían en peligro la popularidad que tienen estas, en este caso, la certeza de que existe materia escura en una cantidad

mucho mayor a la cantidad de materia conocida es un factor muy fuerte para dudar de la teoría del Big Bang, pues sin

conocer a fondo la situación actual del universo, y en consecuencia de la materia oscura, es muy difícil determinar una

teoría congruente con la ciencia actual.

PALABRAS CLAVE: Big Bang, Materia oscura, Universo

1. Introducción

El hombre siempre ha tenido la necesidad de explorar el

lugar en donde vive, por esto ha estado atento a los cambios

que se presentan a su alrededor y se ha interesado por

conocer el comportamiento y la naturaleza de las cosas que

están en interacción con él diariamente, consecuentemente,

esto lo lleva a preguntarse acerca de su origen y su fin;

siendo esta pregunta imaginable desde la física a la luz del

origen del universo.

Con el correr de los siglos el hombre se ha desarrollado, y

en este sentido también han evolucionado sus preguntas

sobre sí mismo y lo que lo rodea, volviendo sus respuestas

más profundas y especificas, y de nuevo la pregunta acerca

del origen del universo adquiere un papel importante en el

momento de identificar su posición en él, y se han hecho

grandes esfuerzos por entender cómo se comporta.

Las diversas respuestas para la pregunta de cómo se creó el

universo han dado paso a la adopción de paradigmas, ya sea

por respuestas del tipo teológicas o con algún componente

científico en las consideraciones o en los postulados, que de

todas maneras no dejan de ser especulativos en alguna

media, grandes dependientes de la imaginación.

Por lo general el grueso de las personas de nuestro tiempo

responden a la pregunta acerca del origen del universo con

dos palabras: Big Bang, es la teoría más popular, y que mas

satisfecha ha dejado a la humanidad hasta ahora, y ha

creado una caja negra en donde la no consideración de un

principio repentino y circunstancial del universo no es

tomada en cuenta por mucho tiempo, ni en serio.

2. Preliminares, la expansión del universo

Para llegar a contestar la pregunta en discusión, primero se

tuvo que haber pensado en la situación actual del universo,

diversos estudios como los de Edwin Hubble sobre la

distancia de las estrellas, o posteriormente acerca de los

espectros de las estrellas, en los que por medio del efecto

Doppler se concluyó que el universo se está expandiendo,

ya que entre más lejana es la estrella, más grande es su

corrimiento hacia el extremo del color rojo en el espectro, a

partir de lo cual se concluye que las estrellas se están

alejando unas de las otras a una velocidad que aumenta con

las distancia, entonces el universo no puede ser estático[1].

Otros experimentos y postulados teóricos a cerca del

universo han sido considerados a lo largo de la historia de la

física, para esto, un hecho permitió dar pasos importantes en

el estudio del universo actual, son los modelos del ruso

Alexander Friedmann, el consideraba que el universo se

veía igual en todas las direcciones, y que esto ocurre

mirando desde cualquier lugar[2], eso es una aproximación

a la realidad, que fue corroborada por los experimentos de

los norteamericanos Penzias y Wilson, que por medio de un

detector de microondas, lograron captar la radiación

proveniente del universo, y pudieron ver que esta era

prácticamente uniforme en todas las direcciones.

Por lo general de cada nuevo avance se formulan cada vez

más preguntas que deben ser respondidas, ahora bien, si el

universo se está expandiendo uniformemente en todas las

direcciones, ¿esta expansión será eterna?

Tenemos tres casos, el primero es el que proponía

Friedmann, el universo se está expandiendo lentamente, y

este proceso puede ser revertido por la fuerza de gravedad;

el segundo caso el universo se expande tan rápido que la

fuerza de gravedad no lo puede detener, y en el tercer caso

el universo se expande contantemente, la velocidad con que

lo hace va disminuyendo, pero nunca llega ser cero.

De aquí se pueden concluir algunas primeras ideas acerca

del estado del universo, pero van surgiendo más

interrogantes como la proveniencia de la fuerza que hace

que el universo se expanda, y la forma en cómo se propicio

el inicio de la misma.

3. El Big Bang

Por supuesto se piensa en la idea de que todo proviene de

un punto infinitesimal de densidad infinita, que estalló con

gran fuerza formando todo lo que se conoce incluyendo el

tiempo y el espacio, esta idea, aunque satisface muchas de

las consideraciones tenidas en cuenta anteriormente, es una

Page 5: Revista Veritas

5

singularidad en donde el tiempo y el espacio no existen, o

bien, si curvatura es infinita [1], por tanto no aplican los

conceptos físicos determinanticos. También se interpreta

como una singularidad de la teoría de la relatividad, en

donde esta colapsa matemáticamente.

Aun estaba fuertemente arraigado el paradigma del estado

estacionario, en donde el universo tiene un equilibro

constante de masa y densidad, esto promovió el surgimiento

de ideas como las de Bondi, Gold y Hoyle, ellos decían que

a medida que las galaxias se alejan unas de las otras, iba

apareciendo masa en los espacios interestelares para

conservar el equilibrio del estado estacionario.

La conclusión conceptual acerca del Big Bang se dio

gracias al estudio sobre las estrellas de Roger Penrose,

cuando una estrella colapsa por si misma llega a una

singularidad del espacio-tiempo llamada agujero negro,

Hawking pensó entonces que si se invierte este hecho, el

colapso es entonces una expansión, y que de manera similar

pudo haber surgido el universo, pero esto no queda aun del

todo claro.

4. Otras miradas al Big Bang

Se consideran diversos puntos de vista para mirar las cosas

de una manera holística, que permita tener un concepto más

claro, o una mayor aproximación de la realidad, y ahora con

mayor conocimiento se puede cuestionar la veracidad de

teorías propuestas con anterioridad o simplemente

proporcionar nuevas fuentes de estudio para corroborarlas,

y el Big Bang no es la excepción.

Se puede analizar el universo a partir de la métrica de

Senovilla, “que describe un universo inhomogeneo con una

fuente de fluido perfecto” [3], se cambian las ecuaciones de

Einstein al respecto, y se describe el universo como si no

hubiera tenido Big Bang, pero si con una aproximación a

que este haya ocurrido, en donde las expresiones para

energía y presión son siempre finitas, y en base a ello se

puede definir matemáticamente un parámetro para la

expansión, teniendo en cuenta la dinámica del espacio

tiempo. En la grafica 1 se puede ver la densidad de energía

en función del tiempo en el universo.

Grafica 1: densidad de energía en función del tiempo “antes

y después del Big Bang”

En la grafica 1 se tiene en cuenta el tiempo antes y después

del “Big Bang”, se ve una distribución de antes y después

de él, en donde al acercase al punto cero, la densidad sube

significativamente con un comportamiento parecido al de la

teoría del Big Bang original, este estudio pretender dar una

nueva herramienta para el estudio de las posibilidades

teóricas en la cosmología.

Hay otra manera de ver los sucesos, así como se apoyan, se

pueden atacar, y existen diversas maneras de hacerlo, como

desde la razón, José Bermejo de la Universidad de

Compostela, cuestiona la veracidad del Big Bang a partir de

postulados como los de Einstein, partiendo de ese punto se

considera la relatividad en la visión de los sucesos, por

tanto, el Big Bang es un acontecimiento de “ficción

verosímil, de tipo narrativo y no científico” [4].

No se debería dar por hecho científico, pues conocemos la

mínima parte de la materia existente en el universo,

teniendo en cuenta la existencia de materia oscura que no

emitiría algún tipo de luz o de cualquier otro tipo de

radiación, que es la manera en cómo podemos conocer lo

que ha pasado en partes para nosotros lejanas del universo.

Se propone dar una probabilidad para la verdad en el

universo, y que esta sea igual a rata entre la cantidad de

materia conocida y la cantidad de materia oscura, la cual

sería muy baja; para hechos como la captación de radiación

de fondo que se supone habría surgido en el origen del

universo, pero no hay una prueba clara de eso si no se

conoce con claridad que es la materia oscura. Así pues el

Big Bang es considerado el límite entre el lenguaje

matemático y el lenguaje cosmológico, un límite

epistemológico.

Se han mostrado dos formas de ver de una sola teoría, en la

primera se muestra un apoyo matemático y científico a la

teoría, en donde por medio de las matemáticas se tiene un

respaldo que da credibilidad científica al tema, además

puede ser de utilidad para otros científicos interesados en

tratar el tema por la misma línea, pero en la segunda se

muestra un análisis racional y con cabeza fría del asunto, en

donde se cuestiona la veracidad de la teoría en la manera en

cómo se generaliza sin tener las pruebas contundentes para

poder hacer juicios con plena seguridad, en realidad el

desconocimiento de la materia oscura es una gran dificultad

para la teoría, pero también debe considerarse que aunque

esta ya es casi un hecho científico en el afán de buscar una

respuesta satisfactoria a las preguntas que se formulan, y

que a su vez esas respuestas sean satisfactorias para todos

los casos, se buscara la manera de que la materia oscura

adquiera sentido para nosotros, y el universo pueda tener

unos “limites” claros de estudio para continuar con la

exploración de lo que nos rodea.

5. Conclusiones

Es necesario buscar buenas definiciones y concepciones de

lo que está cerca a nosotros si queremos responder

efectivamente nuestras preguntas, la veracidad de esas

respuestas se verá reflejada en la claridad de las hipótesis

planteadas y en su demostración. El Big Bang es un ejemplo

muy importante de ello, la dificultad de dar una respuesta a

la pregunta del origen del universo ha hecho que se confíe

en teorías de las cuales se tiene un apoyo experimental, pero

Page 6: Revista Veritas

6

que no es contundente, así pues se espera que la teoría se

adapte a nuevos conceptos, en este caso la materia oscura, y

también que sea concreta para que no se siga divagando en

una pregunta tan vital para nuestra identificación con el

mundo.

REFERENCIAS

[1] HAWKING, Stephen. Historia del tiempo. Primera

edición. Barcelona: Editorial Critica.1988

[2] HAWKING, Stephen. La teoría del todo

[3] N. AVILAN, J. RODRIGUEZ, J. TEJEIRO. (2005):

Propiedades cosmológicas de universos sin Big Bang.

[EBSCO Academic Search Complete]. [1 Dic. 2008].

[4] BERMEJO, Jose. Una narración no es una ecuación:

principios metafísicos de la cosmología estándar. [EBSCO

Academic Search Complete] [consultado en 1 Dic. 2008].

ACERCA DEL AUTOR

Miguel Andrés Garzón Ramírez Código: 200667

Grupo: 8

Número de lista: 14

Profesión: Ingeniero Industrial

E-mail: [email protected]

Cargo: Escritor

Page 7: Revista Veritas

7

IDEAS SOBRE EL UNIVERSO

IDEAS ABOUT THE UNIVERSE

Este artículo pretende dar una visión general sobre algunas teorías

actuales de la física acerca del universo. Se hará especial énfasis

sobre la teoría de cuerdas, una teoría que pretende revolucionar la

manera de concebir nuestro universo; Además se habla sobre

algunos conceptos en torno a los universos paralelos,

consecuencia de la teoría de cuerdas y conceptos como la

mecánica cuántica.

PALABRAS CLAVE: Universo, ideas, dimensión.

I. INTRODUCIÓN

a física ha recorrido un largo camino desde que

Newton formuló la teoría gravitacional para explicar el

movimiento descrito por los planetas en nuestro

sistema solar. Con la teoría de la relatividad formulada por

Albert Einstein, se estableció una relación entre el espacio

y el tiempo que revolucionó nuestra manera de comprender

el universo, proponiendo la existencia de una velocidad

límite inquebrantable en la naturaleza (A pesar de que

Einstein no pudo comprobar experimentalmente su teoría,

numerosos científicos han realizado experimentos en

aceleradores de partículas que convierten a este modelo en

uno de los mas avalados de la física moderna). Poco

después de que se formulara la teoría de la relatividad,

Niels Bohr junto con un equipo de científicos enunciaron la

teoría cuántica con el objetivo de explicar el

comportamiento de los átomos y sus partículas, cuyo

estudio se basa en calcular las probabilidades de desenlace

de un experimento determinado.

A pesar de que las 2 teorías han sido validadas por la

comunidad científica, resulta un problema tratar de

combinarlas. La relatividad general describe de una manera

muy precisa el comportamiento de objetos cuya velocidad

con respecto a un sistema de referencia se acerca a la

velocidad de la luz y la manera como se comporta el

espacio-tiempo en presencia de materia, mientras que la

mecánica cuántica se usa para describir objetos a escala

atómica. El inconveniente de la teoría de la relatividad es

que no comparte el aspecto cuántico de la teoría cuántica,

es decir, las posiciones, las energías, las cantidades de

movimiento, etc. de las partículas son continuas y

predecibles; Esto supone una gran dificultad al tratar de

analizar casos como el de los agujeros negros (recordemos

que un agujero negro es un cuerpo supermasivo que

absorbe la luz y todos los objetos que se encuentren cerca

debido a su alta fuerza gravitacional) o el origen del

universo con la teoría de la Big Bang, donde es

fundamental involucrar las nano partículas y la curvatura

del espacio-tiempo juntos.

Actualmente, uno de los retos más grandes de la física es

tratar unificar estos y otros conceptos con una teoría del

todo, que explique con un conjunto de ecuaciones todos los

fenómenos que se describen en la naturaleza. En este

momento la candidata más favorable para lograr esta labor

es la teoría de cuerdas, cuya esencia se basa en comprender

la materia como pequeñas cuerdas que vibran en un espacio

de 11 dimensiones.

II. LA TEORÍA DE CUERDAS, ¿UNA EXPLICACIÓN?

II. LA TEORÍA DE CUERDAS, ¿UNA SOLUCIÓN?

Einstein dedicó gran parte de su vida en encontrar una

teoría que unificara la fuerza gravitatoria con la fuerza

electromagnética, pero logró muy pocos avances sobre el

tema sin establecer una idea concreta. Esta idea la

retomaron los científicos Theodor Kaluza y Oskar Klein a

principios del siglo XX, proponiendo la inclusión de una

quinta dimensión suficientemente pequeña que

proporcionara la conexión entre las 2 fuerzas mencionadas.

Si nos fijamos en las ecuaciones, resulta tentador

relacionarlas debido a que ambas decaen con el cuadrado

de la distancia. Haciendo los análisis necesarios,

sorprendentemente encontramos que podemos crear una

sobre 5 dimensiones que explique la fuerza gravitatoria y

electromagnética en 4 (Bousso y Polchinski, 2006).

Basándose en esta idea, la teoría de cuerdas propone la

existencia de 11 dimensiones espaciotemporales para que

las ecuaciones sean matemáticamente coherentes, con una

L

Figura 1: Curvatura de espacio-tiempo producido por un cuerpo celeste. El movimiento satélite que gira alrededor de él es una

respuesta a la curvatura. En un agujero negro, la deformación es

extremadamente grande debido a la cantidad de masa. Tomado de:

http://www.xtec.cat/~lvallmaj/palau/einstein/corbat.jpg

Page 8: Revista Veritas

8

nueva perspectiva de la materia: “Las partículas son en

realidad objetos unidimensionales, pequeñas hebras o

anillos en vibración” (Bousso y Polchinski, 2006). Estas

pequeñas cuerdas parecerán partículas puntuales a menos

que se acerquen a escalas similares a las de la constante de

Planck (1034

metros).

Nuestro mundo cotidiano se ve altamente afectado por la

geometría de estas dimensiones; Dependiendo de la forma

de las mismas, de las líneas de flujo (las líneas de flujo son

fuerzas que se representan por líneas, como las líneas de

campo magnético), entre otros parámetros, se definirá las

funciones y las constantes físicas que se regirán en el

universo. Las soluciones para las ecuaciones planteadas de

la teoría de cuerdas permiten obtener innumerables

configuraciones exóticas; Pero no todas las configuraciones

son estables; Definiremos a la energía de vacío como la

energía potencial determinada por las condiciones de los

parámetros expuestos anteriormente. Como todo sistema en

la naturaleza, las dimensiones buscarán el menor estado de

energía como una bola rueda por un valle buscando la

menor energía potencial. Siguiendo esta analogía,

supondremos un paisaje con valles y colinas donde rodará

la nuestro universo dependiendo de la energía potencial que

conserve.

Dentro de este paisaje denominado por muchos “El

paisaje de la teoría de cuerdas” el universo puede quedar

confinado dentro de un valle, denominado vacío estable. Es

más, se presume que nuestro universo está confinado dentro

de uno de estos vacíos estables debido a que las leyes de la

física no cambian. Algunos estudios llevados por la

universidad de Stanford y el InstitutoTata de Investigación

fundamental en India, han estimado que existen alrededor

de 500 asas que satisfacen la condición de vacío estable. Si

suponemos que cada asa puede tener entre 0 y 9 líneas de

flujo, habrá una posibilidad de 10500

configuraciones

posibles para un vacio estable (Bousso y Polchinski, 2006).

Entonces ¿Por qué la naturaleza ha escogido este vacío

estable y no otro? La siguiente explicación explicar este

punto e introducir la noción de universos paralelos.

III. LA MECÁNICA CUÁNTICA Y EL VACÍO ESTABLE

Por el efecto túnel sabemos que un átomo puede

atravesar una barrera de potencial mucho mayor que la

energía potencial que posee la partícula. Algo similar

ocurre con las dimensiones y su energía de vacío: Una

configuración puede cambiar de estado abruptamente

estando en un vacio estable, “rodando” hacia otro valle con

energía potencial mucho menor que la inicial, cambiando

su forma, sus estados de energía, y por consecuencia, sus

leyes físicas.

Recordemos que cada punto de nuestro espacio está

compuesto por 11 dimensiones espacio-temporales, las

cuales pueden cambiar su configuración por las razones

expuestas anteriormente. Pero este cambio no ocurre

instantáneamente; La nueva asa se expande en una burbuja

dentro de la antigua configuración. Esto supone que en

nuestro vasto universo existe una amplia gama de

configuraciones posibles, unas tan alejadas de las otras que

son imposibles detectarlas desde nuestra posición actual en

el universo; Estos nuevos arreglos generan nuevos

universos con leyes físicas distintas al nuestro (Bousso y

Polchinski, 2006).

IV. UNIVERSOS PARALELOS

Si proponemos la existencia de universos paralelos al

nuestro, podemos preguntarnos si existen sistemas

cosmológicos que contengan planetas, estrellas, y si es

posible, vida. Pero antes de irnos más allá de las fronteras

de nuestros sentidos y nuestro razonamiento, es posible que

estos existan en nuestra misma burbuja. Ya veremos por

qué.

A. Multiverso de Nivel I

El alcance de observación que nuestros instrumentos

pueden llegar a observar está delimitado por la distancia

que la luz ha logrado recorrer desde el inicio de los

tiempos. A este límite se le conoce como volumen Hubble,

estimado actualmente con un radio de 4x1026

m (Tegmark,

2006). Nuestro volumen Hubble crece un año luz cada año.

Ahora reflexionemos sobre todas las posibles

configuraciones que puede tener nuestro universo. El lector

puede llegar a pensar que es imposible que nuestro sistema

llegue a repetirse, pero observaciones recientes del espacio

han encontrado un patrón de uniformidad a escalas mayores

a 1024

metros (Tegmark, 2006). Piense que si nuestra

membrana es demasiado grande y la materia cuenta con un

número limitado de protones, neutrones, electrones, entre

otras partículas, en algún momento se habrán agotado las

Figura 2: Burbujas generadas por los cambios en la disposición en

las asas. Cada membrana delimita un universo con sus propias leyes

físicas. Tomado de: http://bp0.blogger.com/_jA2sei6dZ-g/SBt5Ht-9wjI/AAAAAAAAACM/mttayjCxeJo/s320/Multiverso.jpg

Page 9: Revista Veritas

9

posibilidades y el universo debe empezar a tomar rumbos

similares.

Estudios probabilísticos estiman que su otro yo podría

estar a una distancia de 1028

metros de distancia, y a 10118

metros de nosotros podría existir un volumen Hubble igual

al nuestro (Tegmark, 2006). Debido a que estos universos

paralelos se encuentran en la misma membrana que el

nuestro, sus leyes físicas serán idénticas al nuestro, pero sus

evoluciones estarán determinadas por las condiciones

iniciales.

B. Multiverso de Nivel II

De nuestro multiverso de nivel I pasamos al nivel II, un

lugar con leyes físicas diferentes a las nuestras. Para dar

una idea general sobre las consecuencias de los cambios

abruptos en las leyes físicas pensemos por un momento que

la constante de Planck en uno de estas membranas fuera 1.

Por las ecuaciones de la mecánica cuántica como el

principio de incertidumbre de Heisenberg o la cuantización

de la energía, todos los fenómenos atómicos serán

perceptibles en escala macroscópica. Ahora cambiemos el

valor de la fuerza nuclear fuerte: Si la debilitamos lo

suficiente podemos desestabilizar el núcleo del átomo y

hacer que se destruya, negando la creación de estructuras

más complejas.

Algo similar ocurre con las dimensiones. Dependiendo

del número de dimensiones espaciales grandes ocurrirán

fenómenos similares a los descritos anteriormente. En

conclusión, muy pocas configuraciones son adecuadas para

poseer estructuras tan complejas como la nuestra, y aun

más, de vida. Este tipo de universo se encuentra en otra

membrana diferente de la nuestra, demasiado lejos de la

nuestra para que nos percatemos de su existencia (Tegmark,

2006).

C. Multiverso de Nivel III

Según la mecánica cuántica, todos los posibles resultados

de un experimento aleatorio suceden a la vez, solo que en

nuestro universo percibimos una fracción de la realidad

cuántica completa (Tegmark, 2006). Pero, ¿Tendrá alguna

relación los otros posibles desenlaces con los universos

paralelos? La relación la presenta el Multiverso de nivel III

concluyendo que todas las posibles soluciones de un

acontecimiento ocurren en algún lugar del espacio.

En realidad el nivel III no aporta mayores conceptos

sobre la forma y la ubicación de las membranas, pero limita

los acontecimientos que pueden suceder en cada una de

ellas. Esta hipótesis abre una gran perspectiva hacia la

imaginación, llevando a pensar que en alguna parte del

espacio, toda la historia de nuestro planeta, y en general, de

nuestro universo, se ha desarrollado tal cual hasta este

momento.

D. Multiverso de nivel IV

En este, el más complejo de los niveles, las leyes físicas

permiten configuraciones que desde nuestra perspectiva

pueden parecer imposibles – Como tiempos discretos –

además de ser continuamente cambiantes. Actualmente

estas ideas son solo bosquejos matemáticos que pueden

llegar a validarse debido a la relación estrecha entre la

física y la matemática.

V. CONCLUSIONES

Las teorías expuestas a lo largo de este artículo hasta

ahora se están desarrollando. Muchas de ellas se basan en

relaciones matemáticas tan simples como complicadas que

explican satisfactoriamente algunos fenómenos de la

naturaleza; Debemos tener en cuenta, sin embargo, que una

teoría que no se pueda comprobar experimentalmente solo

pasa a ser una simple metáfora respaldada por las

ecuaciones.

VI. REFERENCIAS

[1] “Espacio, tiempo y Velocidad”. Revista: Investigación y Ciencia.

Páginas: 28-38. Edición 40 (Abril – Junio 2005): Einstein.

[2] Bousso, Raphael; Polchinski, Joseph. “El paisaje de la teoría de

cuerdas”. Revista: Investigación y Ciencia. Páginas: 4-13. Edición 43

(Enero – Junio 2006): Fronteras de la física.

[3] Maldacen, Juan. “El espacio, ¿una ilusión?”. Revista: Investigación y

Ciencia. Páginas: 50-56. Edición 43 (Enero – Junio 2006): Fronteras de la física.

[4] Tegmark, Max. “Universos paralelos”. Revista: Investigación y

Ciencia. Páginas: 15-26. Edición 43 (Enero – Junio 2006): Fronteras de la física.

[5] BBC; “Universos paralelos”. Disponible en:

http://www.youtube.com/watch?v=llmoNz_O4FY (primera parte).

Consulta: Noviembre 9, 2008.

[6] Serie: “El universo elegante”. Disponible en:

http://www.youtube.com/watch?v=ZgfvO2iyNTE (primer película: El

sueño de Einstein). Consulta: Diciembre 3, 2008.

Autor:

Abello, Eder Mauricio

Código: 261366

Grupo: 8 Número de lista: 1

Profesión: Ingeniero Electrónico

E-mail: [email protected] Cargo: Escritor

Page 10: Revista Veritas

10

ALBERT EINSTEIN Y LA REVOLUCION DE LA FISICA

ALBERT EINSTEIN AND THE REVOLUTION OF PHYSICS

Albert Einstein fue un físico alemán cuyas ideas revolucionarias cambiaron la forma de pensar de muchos físicos de la

época. Las ideas de Einstein dieron la explicación a muchos fenómenos de la naturaleza de los cuales aun no se tenían sino

solo una vaga idea, permitieron el desarrollo de nuevas tecnologías y llevaron la física a adentrarse cada vez más y más en

los fenómenos celestes, dando explicación a muchos interrogantes como lo eran el comportamiento de los conocidos como

los agujeros negros. Este artículo enuncia algunos descubrimientos más importantes de este gran científico que llego a

convertirse en uno de los físicos mas importantes no solo de su época, e incluso hoy en día sus trabajos y hallazgos que no

han perdido validez y aun son de gran aplicabilidad en varios campos no solo de la física sino de la ciencias en general.

PALABRAS CLAVE: Einstein, Revolución, Ideas.

1. INTRODUCCION

A lo largo de la historia han existido pensadores que se

han atrevido a seguir sus creencias y pensamientos así

estos muchas veces vayan en contra de los principios ya

establecidos con anterioridad, estas ideas que en un

principio parecen provenientes de una persona carente de

cordura en muchas ocasiones resultan siendo

descubrimientos revolucionarios que trascienden a lo

largo de los años.

Si bien no todas las ideas provienen de contradecir

principios anteriores son las que provienen de ellas las

que producen un salto mas grande en la generación de

conocimiento, ya que abre las puertas a ideas aun mas

atrevidas que las anteriores que de no haber sido por ese

hallazgo, es probable que se hubieran dejado pasar hasta

ser descubiertas muchos años después o tal vez ni

siquiera fueran planteadas alguna vez. Además dan

explicación tanto a fenómenos conocidos que carecían de

un modelo o planteamiento teórico de su

comportamiento, como los nuevos descubiertos con base

en la ideas y hallazgos innovadores que se realizan.

2. EINSTEIN Y LA FISICA

El año 2005 ha sido considerado el año de la física

conmemorando los 100 años desde la aparición de

grandes pensadores publicaron sus descubrimientos

revolucionarios a lo largo de año 1905. Uno de estos

grandes pensadores fue el científico Albert Einstein y sus

hallazgos revolucionaron el mundo de la ciencia como se

conocía hasta ese entonces.

Albert Einstein fue un gran físico alemán, de

descendencia judía, cuya primer influencia en el campo

de la física fue una brújula que le regalo su padre cuando

era niño, Einstein quedo impactado por su

funcionamiento, pues al recibirla, sintió curiosidad por

saber como y porque funcionaba. Era violinista dedicado

y algunas veces afirmo que de no haber tenido éxito en su

carrera en la física, se hubiera ganado la vida tocando su

violín.

Siempre se caracterizo por ser un físico netamente

teórico, era admirable su capacidad de imaginarse todos

los fenómenos en su mente y luego ser capaz de

plasmarlos detalladamente en modelos matemáticos. Esta

capacidad, junto con su casi infinita curiosidad eran sus

grandes fortalezas y a pesar de la complejidad

matemática de sus ecuaciones él afirmaba que sus

conocimientos matemáticos no eran los mejores y que

muchas veces limitaban su desarrollo de nuevas ideas. Su

fama como físico se radico cuando en 1905 fueron

publicados en la revista “Annalen der Physik” 5 artículos

escritos por Einstein, uno de ellos era su tesis doctoral,

pero serian los otros cuatro artículos los que lo harían

famoso.

3. MOVIMIENTO BROWNIANO

El primero de estos artículos hace referencia al

movimiento browniano, que es un movimiento caótico de

partículas debido a choques entre átomos y moléculas, y

dijo afirmo que se podía analizar desde un punto de vista

estadístico. Hasta ese entonces muchos no creían que el

comportamiento de las partículas era aleatorio pero en si

no se sabia a que se debía esto, ni siquiera el mismo

Robert Brown pudo explicar este fenómeno, el lo observo

y lo planteo y de ahí se debe su nombre pero no encontró

una explicación matemática concreta ya que el tema de

las partículas era muy nuevo en ese entonces. Einstein

partió del hecho de la existencia de las partículas y como

seria su comportamiento al suspenderlas en un líquido, el

cambio de posición al hacer esto realizo una seria de

ecuaciones matemáticas que al final dieron una

explicación muy precisa del movimiento con lo cual se

puso fin a muchas discusiones sobre las partículas que se

tenían en ese entonces.

Page 11: Revista Veritas

11

4. DUALIDAD DE LA LUZ

En el segundo afirmo que la luz era una emisión de

pequeños paquetes de energía a los que se llamaron

cuantos y debido a esto se abandono la teoría de la luz

como onda únicamente por la de la luz como onda y

como un haz de partículas a las cuales mas adelante se les

llamarían fotones, los cuales chocaban con algunos

metales y los cargaban eléctricamente dando explicación

al fenómeno como efecto foto-eléctrico. Pero esta

propuesta no fue tan novedosa como se podría pensar, ya

que mucho antes de de Einstein, Newton habían

afirmado que la luz era una tenia un comportamiento

corpuscular, estaba compuesta de varios paquetes de

luminosos en un gran conjunto cuya cantidad dependía

de la intensidad de la luz aplicada. Luego apareció

Huygens quien dio otra explicación de la naturaleza de la

luz, el afirmo que la luz era un onda y que se comportaba

como tal, luego de varios experimento pudo demostrar

que la luz tenia características ya que podía reflectarse,

difractarse y como comportamiento típicos de una onda,

desplazando así la explicación de Newton. Pero fue

einstein quien retomo amabas teoría y planteo una idea

totalmente revolucionaria, sobre todo en aquella época,

que las teorías no deberían ser rivales, sino por el

contrario deberían estar juntas y de esto nació lo que

actualmente se conoce como la dualidad de la luz. Por

este trabajo le fue otorgado el premio Nóbel en 1921.

5. LA RELATIVIDAD

El tercer articulo trata sobre la relatividad de la que

alguna vez hablo Galileo Galilei pero añadió dos nuevos

principios, que todo es relativo pues depende del sistema

de referencia desde donde se mire pues, y que sin

importar el sistema referencia la velocidad de la luz

siempre será una constante. Una de sus frases mas

famosas para explicar la relatividad fue la que dio en una

entrevista, esta es "Cuando un hombre se sienta con una

chica hermosa por una hora, parece que transcurre un

minuto. Pero si se sienta en una estufa caliente por un

minuto, éste es más largo que cualquier hora. Esa es la

relatividad"[1]. Fue una manera muy simple de explicar

una teoría bastante compleja, que sin duda alguna deja un

clara idea de en que consiste la relatividad. Esta tuvo

aplicabilidad no solo en la física sino también en muchas

otras áreas, todo lo que implicara realizar mediciones

desde un punto de referencia determinado implicaba la

relatividad.

6. MASA Y ENERGIA

En el cuarto articulo, esta la formula más famosa de este

científico E=mc2, donde E es energía, m la masa y c la

velocidad de la luz. Aunque las intenciones de Einstein

eran buenas y el pensó que esto traería un gran desarrollo

para la humanidad, desafortunadamente unos de los

primeros usos de esta equivalencia de masa y energía

fueron las primeras armas de destrucción masiva de las

cuales el mundo pudo apreciar su capacidad destructiva

en las ciudades de Hiroshima y Nagasaki.

7. LA RELATIVIDAD GENERAL

Figura 1: Deformación producida por la presencia de un cuerpo

celeste [5].

Mas adelante plantearía la teoría de la relatividad general,

la cual afirmaba que la gravedad como tal no existía, sino

que la masa ocupaba y deformaba el espacio-tiempo y

esta deformación era la que generaba la fuerza de

atracción entre las partículas. Esto ayudo a explicar

fenómenos tales como la orbita de los planetas del

sistema solar y explicar el funcionamiento de un agujero

negro, pues junto con su planteamiento anterior de la luz

se pudo explicar porque el agujero negro era negro, esto

se debe que la luz al tener comportamiento corpuscular,

también es atraída por la inmensa gravedad del hoyo

negro y le es imposible escapar además de la forma del

hoyo y como atraía a los elementos de sus alrededores; y

corrigió algunas deficiencias encontradas en los

planteamientos de newton. El la figura 1 se puede

apreciar un modelo tridimensional de la deformación en

el espacio tiempo generada por un plantea y como afecta

a los otros objetos alrededor de este, para este caso la

pequeña luna que recorre dicha deformación en una

forma orbital que también esta dada por la deformación.

8. LA TEORIA UNIFICADA

Finalmente en 1955 este gran científico muere a sus 76

años en Princeton, Estados Unidos, dedico la ultima parte

de si vida a la búsqueda de una teoría que unificara las

fuerzas de la naturaleza, estas eran las fuerzas a nivel

atómico y las electromagnéticas con las gravitacionales.

Lamentablemente no pudo llegar a la tan anhelada teoría

y actualmente no se ha llegado a una unificación concreta

pero actualmente se esta trabajando en la conocida como

“teoría de cuerdas”.

9. CONCLUSIÓN

Las ideas de Einstein marcaron un hito en la historia del

conocimiento, su forma diferente de ver las cosas fue la

que permitió que desarrollara teorías tan importantes en

el campo de la física que sin duda alguna lo

inmortalizaran durante mucho tiempo. Esas ideas que

surgen de ver las cosas de una forma diferente en muchas

Page 12: Revista Veritas

12

ocasiones son descartadas por parecer muy absurdas y

son dejadas aun lado sin percatarse que tal vez en esas

ideas existan nuevas teorías que permitan dar saltos cada

vez más grandes en el modelamiento y explicación de lo

que sucede en el entorno.

La causa de que estas ideas se pierdan radica en gran

parte en el miedo a la crítica y desvirtuación por parte de

las personas cercanas quienes al dar un vistazo rápido no

aceptan la idea sino que por el contrario la ridiculizan y

junto con ella a la persona de la que provino. Si se

cambia esta forma de ver las ideas nuevas, muy

probablemente la humanidad logre desarrollar un

mecanismo de generación de conocimiento mucho más

efectivo del que actualmente se tiene.

10. REFERENCIAS

[1]http://www.acropoliscordoba.org/Fondo/alberteinstein

.asp

[2] TIPLER, Paul. MOSCA, Gene. Física para ciencias e

ingeniería. Quinta edición. Reverté. 2005

[3] http://www.kombu.de/einst-sp.htm

[4] Enciclopedia ENCARTA 2007

[5]http://www.iac.es/cosmoeduca/relatividad/imagenes/c

harla3imag/gravedad_640.jpg

[6] SERWAY, Raymond A., Física para ciencias e

ingeniería, Tomo II quita edición, México 2002

Autor:

García Forero, Luis Felipe

Código: 200665

Grupo: 8

Número de lista: 13

Estudiante Ing. Industrial

Cuarto semestre.

Universidad Nacional de Colombia, Sede Bogotá.

E-mail: [email protected]

Page 13: Revista Veritas

13

GPS Y RELATIVIDAD: APLICACIONES Y CONSECUENCIAS

GPS AND RELATIVITY: USES AND CONSEQUENCES

El sistema de posicionamiento global se creó a partir de la necesidad de tener control e información sobre naves u objetos

que se encontraban en algún punto del planeta Tierra. Su funcionamiento se ligó a la medición de tiempos en la superficie y

espacio orbital terrestre (a poco más de 20.000 km de ella). Sin embargo, al no estar en una órbita geoestacionaria, el GPS

se ve afectado por variables como la velocidad y la gravitación, por lo que de acuerdo a la relatividad de Einstein la medida

del tiempo orbital iba a ser distinta a una hecha en la superficie del planeta. El presente artículo muestra por qué la

relatividad de Einstein afecta el sistema GPS y de qué manera puede solucionarse dicho efecto.

PALABRAS CLAVE: GPS, Relatividad, dilatación del tiempo.

1. INTRODUCCIÓN

La carrera espacial comenzada en el siglo XX y las

nuevas teorías de la época abrieron paso a la creación de

nuevas tecnologías. Una de ellas muy mencionada por

estos días es el sistema de posicionamiento global (GPS),

el cual ya se encuentra al alcance de ciudadanos comunes

en aparatos como los celulares.

El GPS es un sistema de navegación y tiempo,

inicialmente operado por el departamento de defensa de

USA. Éste se podría describir a partir de diferentes

segmentos en su utilización: el sistema de satélites

(segmento espacial), las estaciones terrestres (segmento

de control) y los terminales receptores (segmento de

usuarios).

El segmento espacial se trata de un grupo de 27 satélites

(24 operativos y 3 de respaldo) que orbitan a unos veinte

mil kilómetros de la superficie terrestre, los cuales

poseen relojes atómicos para la exactitud en la medición

del tiempo. Hay cuatro satélites por cada seis planos

orbitales inclinados 55° con respecto a la línea ecuatorial.

Los satélites, primeramente construidos por Rockwell

international en los años 70‟, fueron una iniciativa del

departamento de defensa de USA después de cerca de 50

años de investigación y desarrollo bélico que se

intensificó con la guerra fría. El primer satélite de prueba

GPS fue enviado a órbita el 14 de Julio de 1974, cuyo

programa fue llamado NAVSTAR. Actualmente se

encuentran operando 24 satélites, tal como se mencionó

anteriormente.

Técnicamente, éstos funcionan gracias a los paneles

solares que tienen en su exterior, los cuales permiten

obtener energía solar en los momentos en que se

encuentran posicionados frente a él, y tienen

almacenadores de energía para cuando no estén

expuestos a radiación, garantizándose así el trabajo

continuo de esta tecnología. Su período orbital es de

aproximadamente 12 horas y su vida útil de unos 7.5

años.

En cuanto a las estaciones terrestres, es allí donde se

recibe la información de los satélites para su control y

mantenimiento, y los terminales receptores son los que

indican la posición en donde se encuentran.

2. FUNCIONAMIENTO

Los satélites tienen como uso principal la localización de

un objeto, persona o nave en algún punto del planeta

Tierra, aunque se han encontrado un gran número de

creativas aplicaciones.

Para entender su funcionamiento es clave precisar que

debido a que este sistema se encuentra en órbita es

necesario aplicar principios modernos para la

sincronización del tiempo de los relojes satelitales con

los relojes terrestres, aquí es donde la relatividad de

Einstein permite la comprensión de esta nueva

tecnología.

Triangulación

Cuando se desea determinar la posición, el receptor que

se utiliza para ello localiza automáticamente como

mínimo cuatro satélites de la red, de los que recibe unas

señales indicando la posición y el reloj de cada uno de

ellos. Con base en estas señales, el aparato sincroniza el

reloj del GPS y calcula el retraso de las señales; es decir,

la distancia al satélite. Por triangulación se calcula la

posición en que éste se encuentra. Las figuras 1 y 2

muestran gráficamente esta geometría.

Fig. 1. Principios básicos para la determinación de la distancia: (1)

Triangulación desde satélites en lo básico del sistema (2) Para triangular GPS mide distancias usando el tiempo que emplea la onda (3) Para

medir el tiempo GPS necesita relojes muy exactos (4) Una vez conocida

la distancia al satélite, es necesario conocer dónde está ubicado en el espacio (5) La señales de GPS que viajan a través de la ionósfera y

atmósfera sufren un retraso

Page 14: Revista Veritas

14

3. DETERMINACIÓN DEL TIEMPO Y LA

POSICIÓN

La tecnología básica para el correcto funcionamiento del

sistema son los relojes atómicos estables; es por esto que

los satélites tienen relojes de Cesio. La figura 2 muestra

las desviaciones Allan entre un oscilador de Quartz y un

reloj de Cs.

De acuerdo a la figura 2 los osciladores de Quartz tienen

un mejor desempeño de estabilidad a corto plazo,

mientras que las características del Cs son mejores a

largo plazo. Esto es, que al inicializar un reloj de Cs y

dejarlo por un día, éste tan sólo tendría un retraso de 4

nanosegundos. [6]

La necesidad de un reloj tan exacto se debe a que en la

determinación de distancias para saber la posición de una

partícula (objeto, nave, etc) en la Tierra, se tendrá que

recurrir al tiempo que se demora la señal en llegar al

satélite, tal como se mostró anteriormente.

En este orden de ideas, se podría determinar la distancia

d desde la posición del objeto al satélite con relojes

sincronizados. Conociendo el tiempo que marca el

dispositivo receptor GPS y el del satélite, por medio de la

constancia de la velocidad de la luz, se podría hallar la

distancia d:

(1)

Donde tdev es el tiempo del dispositivo y tsat el del satélite,

y c = 299792458 ms-1

. [7]

De una manera más general se podría encontrar

distancias o tiempos de un satélite a distintos puntos del

mapa, de acuerdo a la siguiente ecuación:

(2)

Donde rj es la posición de algún punto del planeta. Sin

embargo, esta solución sólo podría ser usada si los relojes

estuvieran sincronizados, es decir, si se encontraran en un

mismo marco de referencia inercial. Como no ocurre

esto, la situación es más compleja y es ahí donde la

relatividad de Einstein da un novedoso punto de vista que

permite el correcto funcionamiento de esta tecnología.

4. RELATIVIDAD APLICADA EN GPS

Debido a que los satélites se encuentran en órbitas

alrededor de la Tierra, el tratamiento cinemático que se le

debe dar a esta tecnología debe ser relativista, lo que

permitirá una corrección de los aparentes retrasos que

tienen los relojes, de gran exactitud, por estar en un

distinto marco de referencia inercial.

Para modelar una ecuación que permita hacer una

corrección relativista del tiempo, es necesario precisar

que las variables que afectan directamente el cálculo son:

la fuerza de gravitación y la velocidad de la partícula con

respecto a un marco de referencia. De esta manera,

ocurre un efecto denominado dilatación del tiempo,

primera vez mencionado por Einstein en 1905. La

solución teórica de la dilatación del tiempo justifica por

qué ocurre este efecto.

Dilatación del tiempo

La dilatación del tiempo significa que un reloj en reposo

con respecto a un observador inercial mide intervalos de

tiempo mayores que otro reloj en movimiento uniforme

con respecto al mismo observador y para el mismo

evento físico. [1] Este concepto es una consecuencia

cinemática de los postulados de Einstein:

1. Las leyes de la física son las mismas en

cualquier marco de referencia inercial.

2. La velocidad de la luz en el vacío tiene el mismo

valor c en cualquier marco de referencia

inercial. (300.000 km/s)

Fig. 4. Transmisión de la luz vista desde dos puntos de referencia

inerciales.[3]

Considérese dos marcos inerciales S‟ y S en la figura 4

donde el eje de x‟ y x coinciden. Dos orígenes son

colocados en los puntos A y B, respectivamente. El

origen A del sistema S‟ se mueve con una velocidad

constante v a lo largo del eje x hacia B. Supóngase que se

colocan dos espejos y se hace que un haz de luz viaje

entre ellos. Cada vez que un haz de luz haga un recorrido

Fig. 3. Desviaciones típicas Allan de relojes de Cs y osciladores de

Quartz, graficados como función del promedio del tiempo [6]

Fig. 2. Relaciones geométricas en el posicionamiento satelital

Page 15: Revista Veritas

15

completo de ida y vuelta un reloj tomará el intervalo de

tiempo entre dos señales consecutivas, el cual es también

el tiempo necesario para que la luz efectúe su recorrido

completo entre los espejos y está dado por la relación:

(3)

Si el haz de luz es mandado en A y recibido en B

entonces el tiempo que se demora la luz en recorrer esa

distancia será:

(4)

Se sabe que:

(5)

Sustituyendo esto último en la ecuación (4):

(6)

A partir de la ecuación (3) y sustituyendo en (6) se tiene

que:

(7)

La ecuación (7) muestra matemáticamente la teoría de

Einstein. Con esto se determina que el tiempo no es

absoluto, lo que quiere decir que depende del observador

o marco de referencia.

La primera vez que se constató experimentalmente este

efecto relativista fue en 1938 por Ives y Stilwel. Ellos

hicieron un estudio del ritmo de un reloj móvil, lo cual

permitió medir el efecto doppler de la radiación emitida

por rayos catódicos, cuando son vistos directamente de

frente y de atrás. Luego en 1941 Rossi y Hall hicieron un

experimento en el que compararon la población de

muones producidos por rayos cósmicos en lo alto de una

montaña y el observador al nivel del mar. Resultados más

actuales los mostró el Max-Planck-Institut für

Kernphysik de Alemania en el 2007, cuyas conclusiones

se publicaron en la revista Nature [5].

De la misma forma, se podría denotar que:

(8)

(9)

Donde s y s‟ son las longitudes de la luz vistos desde

dos sistemas de referencia. Si se multiplica por c en la

Ec. (7) se obtiene:

(10)

Considerando, además que:

(11)

Donde f es la frecuencia y es la longitud de onda

relacionada. Si s= y s’=‟, dividiendo por c la ecuación

(10), se obtiene la corrección relativista de la frecuencia:

(12)

De acuerdo a la ecuación (7), (19) y (12):

(13)

Esta ecuación muestra el efecto causado por la relatividad

visto desde un marco inercial a otro. De la misma

manera, la relatividad general incorpora la gravitación y

luego de una compleja deducción matemática se obtiene:

(14)

Donde V es el campo gravitacional.

5. CORRECCIÓN RELATIVISTA DEL

TIEMPO

Determinado así el por qué de la existencia del retraso en

los relojes de los satélites, se desarrollaron soluciones

para corregirlos.

Lo primero que se buscó fue un marco de referencia para

construir las ecuaciones. Así, para los propósitos del GPS

se imaginó un marco inercial posicionado en el centro de

la Tierra, para sincronizar los relojes con respecto al

mismo.

En este punto es importante recalcar que se pueden

sincronizar los relojes de acuerdo a un sistema de

referencia y otro, por lo que la medida del tiempo en la

Tierra se llamará tiempo coordinado y el del satélite

tiempo propio.

De esta manera, luego de un modelamiento matemático

complejo y tomando en cuenta la solución de Einstein, se

determinó una ecuación para el incremento del tiempo

propio del satélite:

(8)

Donde es el tiempo propio. Asimismo para el

incremento del tiempo coordinado en la tierra se integra a

lo largo del recorrido que hace el reloj atómico y se

obtiene::

(9)

En las dos ecuaciones es un término que

aparece debido a que en el marco de referencia donde se

utiliza esta ecuación la unidad de tiempo está

determinada por relojes moviéndose en un campo

gravitacional espacialmente dependiente y:

(10)

Esta constante es la escala de tiempo terrestre,

determinada por la unión astronómica internacional.

(Ver [6])

Así, entonces, es posible la sincronización de los relojes

en ambos sistemas de referencia. Las correcciones

relativistas se realizan con software especializados, por lo

que es un proceso automático.

6. APLICACIONES

Page 16: Revista Veritas

16

Se podría hacer una lista de aplicaciones del GPS, pues

tiene funcionalidad a nivel de ingeniería, científico y

militar. En la ingeniería, uno de los usos es el estudio

topográfico de construcciones, ya que puede medir el

movimiento de las estructuras. En la astronomía permitió

hace unos años la medida de la tasa de incremento del

período pulsar binario en el observatorio de Arecibo.

También ha sido utilizado para hacer test de gravitación y

ha comprobado la teoría de Einstein.

Usos más comunes se dan todos los días para el turismo,

ubicación en las ciudades, búsqueda de rutas para llegar a

determinados lugares, para la aviación y la navegación,

entre otros más.

Estos usos masificados generan unos 30 billones de

dólares al año.

7. OTROS SISTEMAS DE

POSICIONAMIENTO

El GPS fue creado por USA, sin embargo en otros países

desarrollados también se crearon sistemas similares. Uno

de los más importantes es el GALILEO, un proyecto de

la agencia espacial europea, con 30 satélites en órbita, el

cual produce cerca de 10 billones de Euros anuales en

servicios.

Otro sistema dominante es el GLONASS, creado por

Rusia, el cual se diferencia del GPS en que está

ligeramente a menor altitud del último y orbita unas 17

veces, mientras que el GPS lo hace 16 veces.

8. CONCLUSIONES

El sistema de posicionamiento global, tecnología que

hace parte de la era de la información, no se hubiera

llevado a cabo sin las ideas innovadoras de Einstein sobre

un universo poco convencional. Sin duda, la carrera de

conocimientos comenzada el siglo pasado ha permitido

que disfrutemos de los artefactos que la ciencia ficción ya

había imaginado. Y aunque la física ha aportado un gran

valor agregado a la industria y avance a nuestra

civilización, también ha generado una nueva forma de

seguridad internacional que hace temer de una próxima

guerra mundial. Ideas que en ciertas épocas pueden

parecer descabelladas, han llevado al ser humano al

espacio, apropiándose y aprendiendo de él, pues Einstein

entendió hace más de un siglo que la locura es creer que

se puede llegar a resultados distintos haciendo siempre lo

mismo.

9. REFERENCIAS

[1] GARCIA, Mauricio. EWERT, Jeannine. Introducción

a la física moderna. Unilibros. Departamento de física.

Universidad Nacional de Colombia.

[3] XU, Guochang. GPS, Theory, algorithms and

applications. Springer. 2003

[4] TIPLER, Paul. MOSCA, Gene. Física para ciencias e

ingeniería. Quinta edición. Reverté. 2005

[5] NATURE Magazine. SASCHA REINHARDT,

GUIDO SAATHOFF, HENRIK BUHR, LARS A.

CARLSON, ANDREAS WOLF, DIRK SCHWALM,

SERGEI KARPUK, CHRISTIAN NOVOTNY,

GERHARD HUBER,

MARCUS ZIMMERMANN, RONALD HOLZWARTH,

THOMAS UDEM, THEODOR W. HANSCH, GERALD

GWINNER. Test of relativistic time dilation with fast

optical atomic clocks at different velocities. Edición: 11

Nov. 2007.

[6] ASHBY, Neil. Relativity in the global positioning

system”. Living reviews in relativity. Disponible en:

<http://relativity.livingreviews.org/Articles/lrr-2003-1/>

[7] T. MATOLCSI. M, MATOLCSI (2008):

“Coordinate time and proper time in the GPS”. European

journal of physics. 1 Sept. 2008. On line:

<stacks.iop.org/EJP/29/1147>

[8] LETHAN, Lawrance. GPS fácil: uso del sistema de

posicionamiento global. Editorial Paidotribo. 2001.

[9] A. POKOPOV, S. MATVIENKO, A. MELESHKO,

T. SERKINA, M. ANDROSOV (2008): Relativistic

effects in global satellite navigation systems. Science

Direct. 19 Agosto 2008.

Autor:

Gamboa Guerrero, John Eduardo

Código: 200664

Grupo: 8

Número de lista: 12

Estudiante Ing. Industrial

Cuarto semestre.

Universidad Nacional de Colombia, Sede Bogotá.

E-mail: [email protected]

Page 17: Revista Veritas

17

DE LA CUANTIZACIÓN DE LA ENERGÍA A LA MECÁNICA CUÁNTICA

FROM THE QUANTIZATION OF ENERGY, TO QUANTUM MECHANICS A través de la historia de la humanidad se han encontrado diferentes fenómenos, los cuales se han intentado explicar

mediante la física. A finales del siglo XIX y principios del siglo XX, se han roto paradigmas que han ayudado al avance de

la ciencia como en ningún otro tiempo se pudo hacer, pues se empieza (no es el inicio exacto pero si el más importante) con

la concepción que Max Plank le da a la energía, diciendo que esta cuantizada y que existen diferentes niveles de energía,

postulado que se corrobora años después con la descripción de la mecánica cuántica que realiza E. Schrödinger en los años

‟20.

Junto a ellos se han sumado diferentes personas, que tuvieron una concepción diferente del universo, y que gracias al

estudio de otros han ayudado al avance, como lo es la secuencia entre Hertz, Einstein, De Broglie, Heisenberg y

Schrödinger. Esta secuencia la termino en Schrödinger, que aunque no fue donde se estanco la física moderna (porque cada

día evoluciona con mayor velocidad), si es lo que mejor entendemos y son los desarrollos de los cuales se puede encontrar

alguna analogía en el mundo macroscópico, pues teorías más avanzadas que llaman a ecuaciones como la de Dirac o el

espacio de Hilbert, ya describen propiedades específicas del mundo cuántico, que al compararlo con la mecánica

newtoniana, es una locura.

PALABRAS CLAVE: Física, energía, quántica.

1. LA FISICA MODERNA

a física moderna tuvo su génesis en el momento en el

cual Max Plank propuso teóricamente y quizá sin

experimentación alguna, la cuantización de la

energía a partir de las observaciones y ecuaciones que

describían la radiación del cuerpo negro, como lo son las

leyes de Wien y de Rayleigh-Jeans, las cuales Plank

„unificó‟ y de este proceso dedujo una nueva, de la cual

él interpretó que la energía tiene ciertos niveles, que ésta

no puede tener valores intermedios, sino siempre valores

enteros.

Unos años antes que Max Plank hubiera solucionado el

problema de la radiación del cuerpo negro, con su

ecuación, que lo llevaría a deducir que la energía tiene

niveles de energía, H. Hertz descubrió el Efecto

Fotoeléctrico (EFE), el cual no pudo describir muy bien,

pues tenía ciertos paradigmas que no pudo romper, lo

cual le impidió conseguir las herramientas necesarias

para avanzar con este descubrimiento, algo que si logró

hacer Albert Einstein en 1905, al proponer la idea (que es

una transformación del postulado de Plank), que dice

“…una radicación electromagnética de frecuencia

está constituida por pequeños paquetes de energía

cada uno de los cuales porta un cuanto de energía

(fotón) cuyo valor es proporcional a la frecuencia de la

radiación.”1 Donde propone un concepto revolucionario

para su época, el cual es la dualidad en el

comportamiento físico de la luz, pues para principio de

siglo se tenía la concepción de que la luz se comportaba

únicamente como una onda, pues presentaba fenómenos

ondulatorios como lo son la reflexión o la difracción,

pero al darle un comportamiento corpuscular a la luz, a

1 EWERT J., GARCÍA M. “Introducción a la física moderna”. 3ra.

edición. 2003. p 67.

parte de entender claramente el EFE (por el cual ganó el

premio Nobel), generó una duda en el físico francés

Louis De Broglie, quien en 1924 postula que la materia,

al igual que la luz, también tiene un comportamiento

ondulatorio, pues si Einstein propuso una dualidad de la

luz, que se comporta generalmente como una onda, debía

existir una correspondencia que implicara que lo que

normalmente se comporta como partícula, pueda

describirse por medio de una onda.

Esta idea que parecía aún más descabellada que la

propuesta por Einstein en 1905 (pues pudo demostrar un

fenómeno descubierto con anterioridad), relacionaba la

longitud de onda con la velocidad, diciendo que la

cantidad de movimiento (p) es inversamente proporcional

a la longitud de onda de De Broglie (), donde el valor

que las relaciona a las dos es la constante de Plank (h).

Dos años después quedó demostrado que lo propuesto

por De Broglie, realmente existía, pues mediante los

experimentos de Davisson-Germer (1925) y G. P.

Thomson (1926), mostraron la existencia de dicha

longitud de onda.

Fig. 1 Efecto Fotoeléctrico

L

Page 18: Revista Veritas

18

Partiendo de este concepto, el alemán Werner Heisenberg

en 1927, sorprende al mundo de la ciencia con su

Principio de Incertidumbre, el cual dice que es imposible

poder medir en el mismo instante la velocidad y posición

de una partícula, pues si su movimiento puede ser

descrito por una perturbación que ocupa todo el espacio,

no se podrá tener claridad sobre la ubicación de la

partícula, pues ésta está distribuida en toda la onda y su

incertidumbre es total, pero al tener más certeza de la

ubicación de la partícula, se irá perdiendo en su

velocidad, pues la forma en la cual reducimos la

incertidumbre de la posición, es reduciendo el espacio en

el cual ésta se pueda desplazar, lo que se realiza por

medio de la superposición de ondas, lo que implica que la

cantidad de movimiento se vea alterada, pues la longitud

de onda correspondiente a la partícula, la cual es una

perturbación derivada del movimiento de la partícula, es

decir por su velocidad, se reduce, lo cual hace que se

genere una mayor certeza de la ubicación de la partícula,

pero su cantidad de movimiento, que es representada por

su velocidad, se ve altamente alterada, pues se

superpusieron otras ondas, las cuales hacen que se pierda

la referencia de la longitud inicial.

Un ejemplo que puede explicar de mejor manera el por

qué es imposible la medición conjunta de la velocidad y

posición de una partícula, sería la medición de la posición

y velocidad de un electrón, pues si se desea realizar la

medición de su ubicación y saber que velocidad llevaba,

implica que se deba observar de alguna forma el electrón,

para lo cual se necesita que un fotón lo impacte, lo que

generaría que no se pueda determinar ni la velocidad ni la

posición en cierto instante, pues el choque del fotón

sobre el electrón genera un cambio en su velocidad y

posición (haciendo uso de la mecánica clásica).

El principio de incertidumbre que Heisenberg propuso,

hablando ya en términos matemáticos, que la

incertidumbre total del sistema que se tiene en la

obtención de resultados es mayor o igual a la constante

de Plank dividida entre 4, lo cual representaría que en el

mejor de los casos, es decir la incertidumbre mínima

sería de 5.271 x 10-35

. Se entiende como incertidumbre

total al producto de las incertidumbres de la posición y la

cantidad de movimiento (x•p).

Resulta redundante mencionar que la incertidumbre no

tiene caso hallarla en los objetos que podemos observar,

con los que cotidiana mente interactuamos, pues, si se

realiza se encuentra que la incertidumbre de la posición

es un valor insignificante al compararlo con las

dimensiones al objeto en mención y de igual manera

sucede con la velocidad, pues se tendrá una variación que

es imperceptible para la velocidad que lleva el objeto.

Este principio de incertidumbre, no es la base de la

mecánica cuántica, pues junto con la longitud de onda

propuesto por De Broglie son los primeros pasos que nos

ahondan en el mundo de las partículas de tamaño

atómico, como lo son los electrones, protones, entre

otros.

Parto diciendo que el que creó la mecánica cuántica fue

Heisenberg, por lo que le otorgaron el premio Nobel en

1932, pues como fue mencionado en el momento de la

entrega del premio “el uso de la mecánica cuántica ha

conducido, entre otras cosas, al descubrimiento de las

formas alotrópicas del hidrógeno”, aunque ha de resaltar

que la mecánica cuántica se puede dividir en dos, la

mecánica cuántica matricial, la cual fue propuesta en

1926 por el grupo de Götinger, que estaba conformado

por el ya mencionado W. Heisenberg, P. Jordan y M.

Born y la otra, la cual ha sido base de más estudios, la

cual es la mecánica cuántica ondulatoria de la cual es

artífice E. Schrödinger.

La teoría de la Mecánica Cuántica esta basada en los

resultados experimentales, pues debido a que es una

ciencia tan volátil, no se ha generado una teoría general

que describiera los resultados, sin siquiera tenerlos (Un

ejemplo de esto es el postulado de M. Plank).

La mecánica cuántica parte del principio de

incertidumbre de Heisenberg, que conduce a la ecuación

de Schrödinger, donde su solución es la función de onda,

la cual describe el comportamiento de la partícula en

diferentes ambientes a diferentes potenciales de energía.

La ecuación de Schrödinger parte del principio de

conservación de la energía, donde la energía cinética más

la energía potencial es igual a la energía total de la

partícula (Ec+Ep=ET), donde realizando diferentes

operaciones algebraicas y utilizando operadores que

describen un observable físico se llega a la función de

onda, la cual es (en una dimensión): (x)= Aeikx

+ Be-ikx

,

donde k, es quien describe el ambiente en el que se

mueve la partícula, pues allí es donde se encuentra la

relación entre la energía total de la partícula y el

potencial del sistema.

Esta función de onda, que también es posible visualizarla

así: (x)=Csen(kx)+Dcos(kx), muestra lo que se propone

desde de Broglie, que la partícula tiene un

comportamiento ondulatorio, pero cuando empezamos a

observar los valores de frontera, es decir en el momento

en que el potencial del sistema cambia a otro potencial,

se encuentra que dependiendo la relación de este

potencial con la energía total de la partícula se puede

encontrar diferentes reacciones de la partícula, las cuales

son:

1. Cuando el potencial es menor que la energía

total. Es este caso se tendrían dos velocidades

diferentes, una cuando la partícula se mueve en

un potencial y otra cuando este potencial

cambia, si el potencial aumenta, existe la

posibilidad en que la partícula se devuelva o

también que siga al otro potencial.

Page 19: Revista Veritas

19

2. Cuando el potencial es mayor que la energía

total. Aquí la solución del sistema deja de ser en

su totalidad ondulatorio, pues la función de onda

se adecua para la región inicial, pero en el

momento en el que entra a un potencial mayor,

la solución es una función exponencial, pues lo

que describe la onda es el imaginario de la

función exponencial y al desaparecer este, la

función es una exponencial descendente, pues

esta no puede aumentar.

3. Cuando se encuentra encasillada en dos

potenciales que tienden al infinito. Este caso se

conoce como la caja de potencial

unidimensional (base de la proposición de la

caja de Schrödinger), acá existen tres regiones,

en dos de ellas la función de onda es igual a

cero, es decir no hay probabilidad de que la

partícula se encuentre allí, por lo que se va a

encontrar en una sola región. Al conocer esto se

empiezan a evaluar en los valores frontera, para

hallar el valor de las constantes, y se encuentra,

que la energía de la partícula está cuantizada,

pues k, sólo puede tomar valores enteros

positivos. Se encuentra que para estas

situaciones la solución de la ecuación de

Schrödinger es:

(x)= √ (2/a) sen (nx/a)

Fig. 2 Función de onda para los cinco primeros

niveles de energía en un cajón de

potencial unidimensional.

2. CONCLUSIONES

- El romper los paradigmas establecidos, tener

una visión diferente del comportamiento del

universo ha generado cambios trascendentales

en la física que conocemos.

- El universo cuántico, es un universo de

probabilidades y tan volátil que cualquier

interacción con él puede modificar sus

condiciones.

- La experimentación debe corroborar la teoría y

la teoría debe predecir perfectamente la teoría.

- Cada vez que evoluciona la ciencia, la forma en

la cual se describe debe evolucionar a un

velocidad similar, generando así nuevos

operadores matemáticos.

3. BIBLIOGRAFÍA

[1] EWERT J., GARCÍA M. “Introducción a la física moderna”. 3ra.

edición. 2003. Unilibros.

[2] SERWAY R. A. “Física”. 1985.

[3]

http://upload.wikipedia.org/wikipedia/commons/7/77/Photoelectric_

effect.png

[4] bandaprohibida.blogspot.com/2007/04/la-ecuacion-de-

schrdinger-en-accin.html

[5] “Explicación de la Mecánica Cuántica”. Disponible en:

http://www.youtube.com/watch?v=sJp_nWU_xzk&feature=PlayList&p=C544E98585E1E9C6&index=0

Autor:

Higuera Camargo, Christian Camilo

Código: 261399 Grupo: 7

Número de lista: 12

Profesión: Ingeniero Electrónico E-mail: [email protected]

Cargo: Escritor

Page 20: Revista Veritas

20

DIFRACCIÓN DE RAYOS X

X RAY DIFRACTION En este documento se realiza una revisión de una técnica de caracterización de materiales más conocida como difracción de

rayos X teniendo en cuenta elementos fundamentales de la misma como lo son principios físicos, funcionamiento, equipos,

componentes que conforman el equipo, como analizar la información cuantitativa y cualitativamente y se ilustran algunos

ejemplos de la caracterización y se realizan algunas conclusiones.

PALABRAS CLAVES: difracción, cristales, rayos X, longitud de onda.

I. INTRODUCCIÓN:

Los rayos X son ondas del espectro electromagnético que

fueron descubiertos en 1895 por William Röntgen, quien

estudiaba los fenómenos observados por Crookes en

tubos al vació. Observo que se producían unos rayos que

tenían una gran penetración pero eran invisibles. Más

tarde se descubrió que se originaban por la

desaceleración brusca de electrones, y que servían para

dejar marcas en películas fotográficas, experimentando

con esto, logro de forma accidental sacar la primera

radiografía, de la mano de su esposa.

Es en el año de 1912 cuando Max von Laue trabajaba en

la universidad de Munich junto con Röntgen, y

examinaba la tesis de Paul Ewald, quien modeló un

cristal como celdas periódicas de átomos con un

espaciamiento de orden de 1 Armstrong: “Esta idea hizo

concebir a Laue la hipótesis de que la pequeña distancia

entre estos planos atómicos podría ser de un orden de

magnitud similar a la hasta entonces desconocida

longitud de onda de los rayos X, con lo cual un cristal

podría provocar interferencias en los rayos X y dar así

lugar a un espectro de difracción”[4]

Las técnicas de difracción de películas y para polvo de

cristales se desarrollaron en dos países a la vez de manera

independiente entre 1915 y 1917 por Peter Debye y Paul

Cherrer en Alemania y Albert Hull en Estados Unidos.

Los difractómetros de polvo aparecieron en la década de

los 40´s junto con nuevos y modernos equipos el mayor

desarrollo en esta época en este campo se le atribuye a

William Parrish. Los difractómetros de cristales sencillos

aparecieron a mediados de 1950 bajo la batuta de

Thomas Furnas y David Harker.

La difracción de rayos X es una técnica de análisis de

materiales, muy versátil que permite realizar estudios de

los sólidos cristalinos en general, teniendo en cuenta las

fases presentes y las propiedades típicas de estas, tales

como estado, tamaño de grano, composición y defectos

estructurales. Además sirve para conocer la estructura

cristalina del material. La difracción de rayos X se puede

hacer en cerámicos, metales, materiales eléctricos y

polímeros. La difracción de rayos X se clasifica en dos

grandes grupos:

Difracción en cristales: su objetivo principal es hallar,

estudiar y entender la estructura molecular de nuevos

materiales.

Polvo: identificación de fases con el fin de conocer las

posibles aplicaciones teniendo en cuenta como varia con

la temperatura su textura y además para poder realizar a

su vez un análisis de tensión.

II. PRINCIPIOS FÍSICOS:

En general la difracción de rayos X se lleva a cabo con

un arreglo como el que se ilustra en la figura 1. Un rayo

incide en una muestra que lo refracta en dirección a un

detector que colecta el rayo.

Figura 1. Arreglo básico para realizar una XRD [5]

La intensidad de la difracción de los rayos X es una

función del ángulo 2θ, el cual esta formado por el rayo

incidente y el rayo difractado por la muestra. Las

longitudes de onda de los rayos X oscilan entre 0.7 y 2

Armstrong cuya energía igualmente varia de 6 a 17 keV.

La estructura cristalina es básicamente un arreglo de

átomos ordenado que se puede ver como una serie de

planos o capas con una distancia de separación d. Estos

planos se definen mediante los índices de Miller.

Teniendo en cuenta estos últimos se puede hallar la

distancia interplanar que está dada por la ecuación:

222 lkh

ad

(1)

Donde a es el parámetro de red.

Page 21: Revista Veritas

21

Cuando un haz de de rayos X incide en un material

sólido parte de este haz se dispersa en todas las

direcciones a causa de los electrones de los átomos que se

encuentran en el trayecto, pero el resto del haz da origen

a la difracción de rayos X. Esta solo se presenta si existe

una disposición ordenada de átomos y se genera una

interferencia constructiva que sólo se da cuando se

cumple las condiciones descritas por la ley de Bragg:

dsenn 2 . (2)

Donde n es el orden de difracción ( ,...}3,2,1{n ), λ s

la longitud de onda. Si no se cumple esta ley entonces la

interferencia es de naturaleza no constructiva y la

fracción del haz difractado es de nula o muy baja

intensidad. La ley de Bragg se ilustra en la figura 2

Figura 2. Ilustración de la ley de Bragg. [5]

Cuando se presenta interferencia constructiva y el rayo

incidente es difractado por los planos atómicos y se

observa entonces un pico de difracción en los resultados

en consecuencia el detector se debe ubicar a un ángulo de

2θ y la muestra se ubica de tal manera que el ángulo entre

el plano de onda incidente y el de la muestra sea θ,

conocido como ángulo de Bragg.

Cada material sea en polvo o película difractara los rayos

X de determinada manera, con un patrón de difracción

diferente y particular. Estas muestras son por lo general

de un material intermedio, entre cristales sencillos y

polvos con una textura de fibra, en esta última todos los

planos son paralelos a la superficie del substrato, que es

elemento que ayuda a la difracción de rayos X haciendo

las veces de una película sobre la muestra, aunque su

distribución atómica se da de manera aleatoria.

En resumen la orientación de los cristales en la muestra

varía dependiendo de la textura, tendiendo siempre a

buscar la mejor orientación. El grado de esta orientación

no solo influencia las características de la muestra sino

que tiene consecuencias en las mediciones y la posible

identificación de las fases en caso de que la muestra

posea varias. Debe tenerse en cuenta que para cada cristal

o película delgada que se esté analizando existe una

familia de planos de índices (h, k, l) la cual satisface las

condiciones de difracción.

La radiación que generalmente se usa en un

procedimiento XRD contiene varias longitudes de onda

denominadas por lo general como Kα1, Kα2, Kβ las

cuales caracterizan al material, una longitud de onda

menor penetra con mayor facilidad y tiene más energía,

por otro lado una longitud de onda mayor sirve en

ocasiones para separar los picos en los factores de

difracción, en caso de que haya problemas con la corteza

del material o en caso de alta tensión en la muestra de

material. La selección de la radiación en si depende de

las características de la muestra. En la tabla 1 se muestran

valores usados de manera general de las longitudes de

onda.

Tabla 1 (longitudes de ondas de rayos X en Armstrong

para algunos materiales) [1]

Tecnología

El equipo usado para la XRD consta de un goniómetro,

que es donde se soporta el detector, que recoge los datos,

que provienen de la difracción que la muestra la cual se

halla en un soporte. Tiene un generador de rayos X que

puede ser estático o móvil. Asimismo se necesita un

computador con software necesario para procesar la

información que el colector recibe, al ser este un

procedimiento que usa ondas electromagnéticas se usan

también monocromadores y colimadores para obtener

mayor precisión en la información.

Detectores

Los más comunes son los detectores de punto estos

colectan la intensidad difractada de un ángulo a la vez, y

se mueven por el rango de ángulos que se quiere medir,

de estos hay 2 clases de centelleo y de estado sólido. Los

de estado sólido presentan una ventaja de velocidad de 3

a 4 veces en comparación con el de centelleo.

Otro tipo son los detectores lineares sensibles a la

posición (PSD‟s) utilizan un cable fino para reunir

intensidad sobre un rango angular simultáneo como se

ilustra en al figura 3 ofreciendo ventajas de velocidad

hasta de 100 veces a las de un detector de punto. Estos

detectores pueden estar fijados sobre un rango de 5 a 10°

2θ o escaneadas como un detector de punto sobre un

rango superior.

Page 22: Revista Veritas

22

Los detectores de centelleo manejan de 10⁵ a 10⁷ cuentas

por segundo. Detectores de estado sólido manejan de

25,000 a 50,000 cps mientras que PSD‟s lineares

manejan 10,000 cps.

Detectores multicableados de área son PSD‟s

bidimensionales que proveen en tiempo real la

información bidimensional. Pueden reunir figuras en

minutos en lugar de las horas o días requeridos con

detectores de centelleo.

Los CCD detectores de área son la más reciente

innovación en tecnología de área detectores para

examinar pequeñas moléculas. Datos de alta calidad

pueden ser obtenidos con fuentes de tubos sellados o con

ánodos rotacionales en 2 a 6 horas. Algunas de sus

aplicaciones incluyen estudios de densidad de electrones

y transiciones de fase. Este detector ofrece lectura y

display de datos en un tiempo cercano al real, menos de 2

segundos, alta resolución espacial y alta eficiencia de

conteo de fotones.

Figura 3. Representación de un PSD [2].

.Difractometros

De manera general en la practica de XRD para láminas

policristalinas con orientación preferente y aleatoria se

usa la geometría Bragg-Brentamo que es mostrada en la

figura 4a. La fuente e sitúa a un lado del circulo y se le

ponen rejillas colimadoras para obtener un haz más

directo, hacia la muestra que esta rotando, el detector

también se sitúa sobre la circunferencia y rota al doble de

la velocidad que la muestra, así dada la ley de Bragg solo

se obtendrá información acerca de los planos (hkl)

paralelos a la superficie de la muestra.

En la figura 4b se muestra una geometría Seeman Bohlin,

la muestra también se pone sobre la circunferencia focal,

i recibe el rayo incidente a un cerito ángulo que está entre

5 y 10 grados, el detector, gira sobre la circunferencia

recogiendo información. Este método es más sensible ya

que usa un fenómeno llamado para-concentración, en el

que al estar los tres elementos sobre la circunferencia

focal la mayoría de los rayos difractados se concentran en

el detector.

Figura 4 difractómetros (a) Bragg-Brentamo (b) Seeman-

Bohlin [2]

Información analítica

En lo que concierne a la XRD la información analítica

para obtener una buena información tanto cualitativa

como cuantitativa, es de gran importancia tener cuidado

en la preparación de la muestra, para tratar de minimizar

las aberraciones en los datos obtenidos.

La mejor forma para obtener datos más acertados, es usar

las muestras lo más delgadas posibles, además de estar

bien adherida al porta-muestras, y tener la superficie cuan

regular como sea posible. Para efectos de obtención de

información cuantitativa se deben eliminar los efectos

indeseables que pueda dar el porta-muestras, y para eso

se han creado portadores mono cristalinos llamados de

fondo cero.

La información cualitativa que se toma es estadística por

tanto a más datos tomados, se tiene información más

confiable, por esto para cuestiones de tiempo se hacen

más útiles los PSD. Dicha información se toma para

hacer comparaciones con datos ya tabulados, de la

información que se requiera.

En el campo cuantitativo el análisis se refiere a la

relación entre la intensidad difractada por cierta fase y la

Page 23: Revista Veritas

23

concentración de la misma. Cuando se trata de una

muestra con una sola fase para calcular la intensidad de

forma correcta se deben tener en cuenta factores como:

temperatura, polarización, absorción, configuración del

equipo entre otros.

Cuando la muestra contiene varias fases la intensidad de

una de ellas en cierta línea de intensidad se calcula de

acuerdo a la ecuación (4), donde Kia es una constante

dada para cada estructura cristalina y configuración del

equipo X es la fracción de la fase que se busca, (µ/ρ)m es

el coeficiente de absorción de masa de toda la mezcla.

Para tener resultados más acertados es mejo utilizar la

intensidad integrada, es decir el área del pico en vez de su

altura, para hacer esto se usan técnicas de acercamiento

de curvas como el acomodamiento de perfil.

(4)

Ejemplos :

La figura 5 muestra la transición del nitrato de potasio de

fase ortorrómbica a romboédrica, los datos de tomaron de

100 a 150 C, con escala de 1 C, como se ve el pico de la

transformación se da cerca a los 130 C, pero los toros que

aparecen son debidos a que al calentarse al muestra los

enlaces del material se expanden. Este experimento fue

hecho con un PSD linear de 20 a 35º de rango 2Θ, y

llevo 3,5 horas hacerlo, haber realizado el mismo

procedimiento con un detector puntual hubiera llevado 64

horas de trabajo.

Figura 5 transición de KNO3 [1]

La figura 6 muestra un ejemplo donde XRD es usado

para identificar las fases en tres muestras Tc de alta

superconducción. Ya que las películas tienen la textura

de fibra casi completa, la identificación era simple y fue

hecha por la comparación al modelo de difracción de

materiales de bulto. Además, debido a la comparación

con tablas, la presencia de una pequeña cantidad de CuO

es evidente en una película. También se concluye que la

película de la figura 6b consiste en las mezclas

aproximadamente iguales de Tl2CaBa2Cu2Ox y

Tl2O2Ba2Cu3Oy, ya que puede ser reproducido por una

combinación aproximadamente igual de los patrones de

la 6a y 6c.

Figura 6 patrones de difracción de películas

superconductoras [2]

Tendencias:

El futuro verá más empleo de GIXD, Difracción por rayo

razante, y medidas de dependiente de profundidad, ya

que estos proporcionan la información importante y

pueden ser realizados sobre el equipo a base de

laboratorio (más bien que requerir la radiación

synchrotron). La posición detectores sensibles seguirá

sustituyendo mostradores y la película fotográfica.

Materiales de capa múltiple se harán más importantes en

el futuro, y por lo tanto, su caracterización estructural que

usa XRD crecerá en importancia. El empleo de radiación

synchrotron como un instrumento analítico para la

caracterización de película delgada también aumentará.

Las características únicas de esta radiación permiten a

experimentos anteriormente difíciles a base de

laboratorio ser hechas de manera simple y algunos

experimentos que son de otra manera son imposibles

Conclusiones

XRD es un método excelente, no destructivo para

identificar fases y caracterizar las propiedades

estructurales de películas delgadas y multicapas. Es

barato y fácil para poner en práctica tiene múltiples

m

ii

XKI

)/(

Page 24: Revista Veritas

24

aplicaciones, y un gran campo de acción desde la

geología hasta la industria arreo-espacial y de

superconductores.

Una pregunta que se genera después de haber hecho una

mirada general al XRD, s si no se pueden hacer estudios

similares a esto de las estructuras atómicas mas pequeñas

haciendo uso de rayos con menor longitud de onda que

concuerden con las distancias que estas tengan.

III. BIBLIOGRAFÍA:

• [1]FORMICA Joseph, X-Ray Diffraction,

Handbook of instrumental Techniques for

Analytical chemistry Prentice Hall PTR, 1997

• [2]TONEY Michael XRD en Encyclopedia of

Materials Characterization: Surfaces, Interfaces,

Thin Films Butterworth-Heinemann, 1992

• [3]ASENSIO Isidoro, Difracción de Rayos X,

Aguilar, Madrid 1955.

• [4] Beltrán X Determinación de estructuras

cristalinas, Universitat de Barcelona 2005

• [5]http://www.xos.com/index.php?page_id=75&

m=2&sm=4

Autor:

Salamanca, Rodrigo

Código: 200627

Grupo: 8

Número de lista: 37

Estudiante Ing. Industrial

Quinto semestre.

Universidad Nacional de Colombia, Sede Bogotá.

E-mail: [email protected]

Page 25: Revista Veritas

25

LA VIDA DE LAS ESTRELLAS

Al observar el firmamento en un área suficientemente despejada y lejos de fuentes luminosas podemos apreciar la gran

variedad y cantidad de estos puntos que simplemente llamamos estrellas. A lo largo de la historia, estos han sido agrupados

en lo que conocemos como constelaciones, compuestas por estrellas suficientemente cercanas que parecen formar figuras

cuya forma ha sido interpretada de maneras distintas por cada sociedad, sin embargo, en el transcurrir de la historia

contemporánea, especialmente en el último siglo, gracias al avance de las teorías físicas y de los instrumentos de

observación del espacio, la ciencia ha logrado acercarse bastante a la naturaleza física de estos puntos brillantes en el

firmamento.

Para comenzar, hay que considerar que no todos los

punto brillantes del firmamento son propiamente

estrellas, al observarse mejor utilizando telescopios,

algunos de estos puntos de transforman en agrupaciones

de estrellas o en nubes de gas brillante, llamadas

nebulosas. Igualmente, estos puntos no son estáticos

como a primera vista parecen, gracias a las

observaciones inicialmente de Huggins y más

recientemente de Edwin Hubble, se ha comprobado que

las estrellas se alejan de nosotros, lo que de manera

general se conoce como la expansión del universo. La

expansión del universo sirvió como soporte para la

aceptación casi general de la conocida teoría del big

bang, que nos plantea una gran explosión que arrojó al

espacio vacío una gran cantidad de materia que a través

de los miles de millones de años de “vida” del universo

ha interactuado entre sí produciendo la variedad de

materia que existe. Esta visión dinámica del universo

constituyó un rompimiento del paradigma del universo

estático e invariable, cambio que posteriormente se

extendió a las galaxias y de paso, a las estrellas, la cuales

lejos dejaron de ser consideradas cuerpos eternamente

brillantes para convertirse en cuerpos con un ciclo de

transformaciones análogo al ciclo de vida de una animal

o planta terrestre.

Nacimiento y Desarrollo

Los diferentes estados en el ciclo de vida de una estrella.

Fuente: Hubble Space Telescope

El ciclo de vida de una estrella es en general, el resultado

de la interacción de fuerzas nucleares, magnéticas,

gravitacionales y rotacionales. En un principio, se

considera que existe una gran nube de gas compuesto de

Hidrógeno y Helio molecular, estas moléculas al tener

masa están sujetas a una atracción gravitacional que hace

que la nube de gas se condense, sin embargo, esta no se

condensa de manera instantánea debido al movimiento

rotacional de la nube que aporta una fuerza rotacional

que se opone a la atracción. Pero la condensación se da y

a medida que ocurre fracciona la original nube en varias

nubes separadas llamadas protoestrellas, las cuales

adquieren energía en forma de calor gracias a la

contracción, este calor hace que las protoestrellas se

separen entre sí; a partir de entonces, la protoestrella

sufre un colapso, que es una contracción rápida, el cual

aporta la energía suficiente para que inicialmente las

moléculas se separen en su forma atómica, pero este

colapso no termina allí, ya que la división

molecular genera tanta energía en forma de calor que

lleva a los átomos de Hidrógeno a dividirse en protones y

electrones, y a su vez, la ionización del Hidrógeno aporta

la energía suficiente para que los átomos de Helio se

ionicen. El resultado final de este colapso en una nube

iónica conocida como Plasma, el cual conserva una

temperatura suficiente para dar origen a los núcleos de

las futuras estrellas, sin embargo, en esta parte hay más

masa que la inicial debido a un proceso paralelo de

incorporación de materia circundante llamado acreción.

Modelo general de una protoestrella. Fuente: Department

of Physics, Hong Kong Space Museum.

Page 26: Revista Veritas

26

Una vez creado en núcleo de plasma, comienza el ciclo

de vida de la estrella propiamente dicho, ya que a partir

de entonces se dan las reacciones nucleares

características de las estrellas. En el núcleo de plasma

compuesto en su gran mayoría de las partículas

subatómicas, las partículas se encuentran en un

movimiento constante que hace que colisionen entre sí.

Estas colisiones en el caso de los protones originan el

fenómeno conocido como fusión nuclear, al colisionar

dos protones se crea deuterio (isótopo pesado del

hidrógeno), el cual al colisionar con otro protón genera

un núcleo de isótopo ligero de Helio, finalmente, se

produce un núcleo de helio a partir de cuatro protones,

pero esto supone una pérdida de masa, lo que implica

una generación de energía en forma de radiación,

aceleración o partículas subatómicas (Meadows, 1987).

Este proceso de fusión nuclear se sigue dando a lo largo

de la vida de la estrella, ya que a partir del helio también

es posible fusionar núcleos para generar otros como

carbono, y a su vez estos dos pueden generar oxígeno, el

cual puede fusionarse con el helio y generar neón, y así

sucesivamente se pueden seguir dando reacciones de

fusión, sin embargo, como era de esperarse este proceso

no es infinito, ya que no puede existir una fuente de

energía infinita, lo que ocurre es que a medida que la

fusión genera núcleos más pesados la energía excedente

es menor, hasta que en cierto punto, en lugar de generar

energía, el proceso de fusión requiere la incorporación de

energía. Una vez que todos los núcleos se han fusionado

hasta generar hierro, el proceso requiere la incorporación

de energía para continuar; es en este punto en el que

empieza el “envejecimiento” de la estrella.

Sin embargo, antes de pasar a la muerte de la estrella, es

importante destacar la energía emitida durante la fusión

nuclear, en el caso del Sol, constituye la fuente más

valiosa de energía para la vida en la tierra. La emisión de

radiación tiene lugar en el centro de la estrella, esta

originalmente se encuentra dentro del espectro

electromagnético dentro de la región de los rayos X de

alta frecuencia, pero debido a que durante su camino al

exterior la radiación es perturbada por las partículas en

movimiento, al alcanzar el exterior de la estrella la

radiación a perdido tal cantidad de energía que ha caído

en la región de la luz visible. Es esta la forma en la que

obtenemos la luz del Sol cada día.

Fusión del núcleo de deuterio 2H y de helio

3H. Fuente:

ISon21.es

Vejez y Muerte

Una vez que la estrella ha consumido todas sus fuentes

de fusión en el núcleo, inevitablemente sufrirá un

proceso en cierta forma inverso al que le dio origen y

finalmente morirá. Sin embargo, el destino final depende

de la cantidad de masa que haya acumulado durante su

existencia, aunque existen sólo tres opciones para la

posteridad de una estrella: enana blanca, estrella de

neutrones o agujero negro. El criterio utilizado para

determinar el destino final a partir de la masa es el límite

de Chandrasekhar, el cual tiene un valor de 1.44 veces la

masa del sol.

Cuando una estrella que ha agotado su energía tiene una

masa por debajo del límite de Chandrasekhar, tendrá un

final de enana blanca. Inicialmente su núcleo pesado

colapsará muy rápidamente (en unos pocos años) lo que

elevará su temperatura a tal punto que los núcleos

pesados chocarán entre sí y como resultado se

desintegrarán en neutrones o núcleos de helio, y una vez

alcanzado este punto el colapso será compensado por la

repulsión producto del principio de exclusión de Pauli.

Es aquí donde nace la enana blanca propiamente dicha,

la cual es estable y altamente densa, y en consecuencia,

comenzará a perder irreversiblemente su calor hasta

llegar cerca al cero absoluto, entonces se denominan

enanas negras, aunque este proceso de enfriamiento

puede llegar a ser muy largo es términos de la vida de la

galaxia.

Si la masa de la estrella esta por encima del límite de

Chandrasekhar, es posible que al agotar las fuentes de

fusión y alcanzar el estado de reducción a enana blanca,

la cantidad de materia sea tan alta que la atracción

gravitacional terminará venciendo a la presión producto

del principio de exclusión, entonces la estrella sufrirá una

repentina implosión que acercará los electrones y los

protones lo suficiente que se creará una explosión

conocida como supernova, de la cual resultará, si la masa

no es muy grande, una estrella estable compuesta de

neutrones llamada precisamente estrella de neutrones

(Nuñez, 2007). Estas se mantienen estables igualmente

gracias al principio de Exclusión de Pauli aplicado a los

neutrones, y son tan densas que su período de rotación se

reduce a unas centésimas de segundo, por lo que también

son conocidas como Púlsares, inclusive algunas llegan a

tener periodos de rotación del orden de los milisegundos,

aun cuando su radio sea del orden de los kilómetros.

Finalmente, surge la inquietud de que pasaría si después

de la supernova, quedara una estrella de electrones tan

masiva que nuevamente venciera la repulsión de Pauli,

en este caso, la estrella colapsaría sin límite alguno

deformando el espacio-tiempo a tal punto que ni siquiera

la luz puede escapar de su campo gravitatorio, entonces

se habla de un agujero negro. Como consecuencia de esta

perturbación infinita, no es posible saber con certeza que

Page 27: Revista Veritas

27

es lo que ocurre dentro del agujero negro, aunque en

cuanto a su existencia sí es posible comprobarla, ya que

si un objeto cayera dentro de un agujero negro, en teoría,

se comprimiría tanto que emitiría rayos X, por lo que un

emisor de rayos X invisible en el espacio en un fuerte

candidato a agujero negro.

REFERENCIAS BIBLIOGRÁFICAS

DEAZA RINCON, Pedro. “El nacimiento de una

galaxia”. En Innovación y Ciencia. Bogotá, Vol. 12, No.

4. 2005

MEADOWS, Jack. Evolución Estelar. Barcelona:

Reverté. 1987.

MERCHÁN, Jorge. Entendiendo el Universo. Bogotá:

Alianza Group. 2004.

NUÑEZ, Paul. “Las estrellas de neutrones: Trompos

cósmicos”. En Innovación y Ciencia. Bogotá. Vol. 14

No. 4. 200

Autor:

Fique Ramírez, Juan Diego

Código: 261388

Universidad Nacional de Colombia, Sede Bogotá.

E-mail: [email protected]

Izquierda, Explosión de una supernova. Derecha, Remanente de una Supernova. Fuente: NASA