· web viewen la figura 1 el vector de color negro es la suma vectorial de los vectores de color...

173
Instrumentos de medición. Para medir temperatura El termómetro es un instrumento u operador técnico que fue inventado y fabricado para poder medir la temperatura . Desde su invención han evolucionado mucho, principalmente desde que se empezaron a fabricar los termómetros electrónicos digitales. Los termómetros iníciales que se fabricaron se basaban en el principio de la dilatación, por lo que se prefiere el uso de materiales con un coeficiente de dilatación alto de modo que, al aumentar la temperatura, la dilatación del material sea fácilmente visible. El mineral base que se utilizaba en este tipo de termómetros ha sido el mercurio encerrado en un tubo de cristal que incorporaba una escala graduada. La escala más usada en la mayoría de los países es la escala centígrada (ºC), también llamada Celsius desde 1948, en honor a Anders Celsius. En esta escala el Cero grados centígrado (0ºC), corresponde con el punto de congelación del agua y los cien grados corresponden con el punto de ebullición del agua. Otras escalas termométricas son: o Fahrenheit (ºF), propuesta por Gabriel Fahrenheit en 1724, que es la unidad de temperatura en el Sistema Imperial británico de unidades, actualmente utilizado principalmente en Estados Unidos . o Réaumur (ºR), en desuso. o Kelvin (K) o temperatura absoluta, unidad de temperatura del Sistema Internacional de Unidades.

Upload: others

Post on 01-Apr-2020

18 views

Category:

Documents


0 download

TRANSCRIPT

Instrumentos de medición.

Para medir temperatura

El termómetro es un instrumento u operador técnico que fue inventado y fabricado para poder medir la temperatura.

Desde su invención han evolucionado mucho, principalmente desde que se empezaron a fabricar los termómetros electrónicos digitales.

Los termómetros iníciales que se fabricaron se basaban en el principio de la dilatación, por lo que se prefiere el uso de materiales con un coeficiente de dilatación alto de modo que, al aumentar la temperatura, la dilatación del material sea fácilmente visible. El mineral base que se utilizaba en este tipo de termómetros ha sido el mercurio encerrado en un tubo de cristal que incorporaba una escala graduada.

La escala más usada en la mayoría de los países es la escala centígrada (ºC), también llamada Celsius desde 1948, en honor a Anders Celsius.

En esta escala el Cero grados centígrado (0ºC), corresponde con el punto de congelación del agua y los cien grados corresponden con el punto de ebullición del agua.

Otras escalas termométricas son:

o Fahrenheit (ºF), propuesta por Gabriel Fahrenheit en 1724, que es la unidad de temperatura en el Sistema Imperial británico de unidades, actualmente utilizado principalmente en Estados Unidos.

o Réaumur (ºR), en desuso. o Kelvin (K) o temperatura absoluta, unidad de temperatura del Sistema

Internacional de Unidades.

Para medir propiedades eléctricas

Los galvanómetros son aparatos que se emplean para indicar el paso de corriente eléctrica por un circuito y para la medida precisa de su intensidad.

Suelen estar basados en los efectos magnéticos o térmicos causados por el paso de la corriente.

En el caso de los magnéticos pueden ser de imán móvil o de cuadro móvil.

En un galvanómetro de imán móvil la aguja indicadora está asociada a un imán que se encuentra situado en el interior de una bobina por la que circula la corriente que tratamos de medir y que crea un campo magnético que, dependiendo del sentido de la misma, produce una atracción o repulsión del imán proporcional a la intensidad de dicha corriente.

En el galvanómetro de cuadro móvil el efecto es similar, difiriendo únicamente en que en este caso la aguja indicadora está asociada a una pequeña bobina, por la que circula la corriente a medir y que se encuentra en el seno del campo magnético producido por un imán fijo.

El vatímetro es un instrumento electrodinámico para medir la potencia eléctrica o la tasa de suministro de energía eléctrica de un circuito eléctrico dado. El dispositivo consiste en un par de bobinas fijas, llamadas «bobinas de corriente», y una bobina móvil llamada «bobina de potencial».

Las bobinas fijas se conectan en serie con el circuito, mientras la móvil se conecta en paralelo.

La inclinación del vatímetro depende tanto de la corriente como del voltaje y puede calibrarse directamente en vatios.

Obtenido de "http://es.wikipedia.org/wiki/Vat%C3%ADmetro"

Un amperímetro es un instrumento que sirve para medir la intensidad de corriente que está circulando por un circuito eléctrico.

Los amperímetros, en esencia, están constituidos por un galvanómetro cuya escala ha sido graduada en amperios.

En la actualidad los amperímetros utilizan un conversor analógico/digital para la medida de la caída de tensión sobre un resistor por el que circula la corriente a medir. La lectura del conversor es leída por un microprocesador que realiza los cálculos para presentar en un display numérico el valor de la corriente circulante.

Un óhmetro u ohmímetro es un instrumento para medir la resistencia eléctrica.

El diseño de un óhmetro se compone de una pequeña batería para aplicar un voltaje a la resistencia bajo medida, para luego mediante un galvanómetro medir la corriente que circula a través de la resistencia.

La escala del galvanómetro está calibrada directamente en ohmios, ya que en aplicación de la ley de Ohm, al ser fijo el voltaje de la batería, la intensidad circulante a través del galvanómetro sólo va a depender del valor de la resistencia bajo medida, esto es, a menor resistencia mayor intensidad de corriente y viceversa.

El electroscopio es un instrumento que nos permite conocer si un cuerpo está cargado eléctricamente.

Un electroscopio sencillo consiste en una varilla metálica vertical que tiene una bolita en la parte superior y en el extremo opuesto dos láminas de oro muy delgadas. La varilla está sostenida en la parte superior de una caja de vidrio transparente con un armazón de metal en contacto con tierra.

El funcionamiento del electroscopio es sencillo. Si se acerca a él previamente cargado un cuerpo electrizado con carga igual a la del electroscopio, las láminas se separan mas. Al acercar al electroscopio un objeto con carga de signo contrario, se observa que las láminas se cierran.

Para medir longitud

Dentro de los instrumentos de medición de longitudes, la cinta métrica o metro y la regla son los más comunes y los más fáciles de utilizar.

El metro, normalmente fabricado de fleje metálico o fibra textil, tiene una escala grabada sobre su superficie, graduada y numerada, en el sistema métrico las divisiones suelen ser centímetros o milímetros. Los metros de fleje metálico, enrollables, suelen tener una longitud entre 2 a 10 metros, normalmente, los de material textil, suelen ser de mayor longitud de 10 a 50 m.

La regla, a diferencia del metro, es rígida, construida de metal, madera o material plástico, y tiene una escala graduada y numerada y su longitud total rara vez supera el metro de longitud.

Además de estos encontramos instrumentos mas exactos como:

El micrómetro (del griego micros, pequeño, y metros, medición), también llamado Tornillo de Palmer, es un instrumento de medición cuyo funcionamiento está basado en el tornillo micrométrico que sirve para medir con alta precisión del orden de centésimas de milímetros (0,01 mm) y de milésimas de milímetros (0,001mm) (micra) las dimensiones de un objeto.

Para ello cuenta con 2 puntas que se aproximan entre sí mediante un tornillo de rosca fina, el cual tiene grabado en su contorno una escala .La máxima longitud de medida del micrómetro de exteriores es de 25 mm, por lo que es necesario disponer de un micrómetro para cada campo de medidas que se quieran tomar. (0-25 mm), (25-50 mm), (50-75 mm), etc.

Se denomina vernier, en honor al matemático francés Pierre Vernier, quien la inventó, a la escala secundaria de un calibre destinada a apreciar fracciones de la unidad menor, aumentando la precisión. En castellano se utiliza con frecuencia la voz nonio.

La precisión de estos instrumentos depende mucho de la calidad y estado del instrumento en sí; por ejemplo, hay verniers que son precisos hasta los milésimos de una pulgada (.001"), cuando otros son aun más precisos (.0005").

La medida se lee en decimales de pulgada o de unidades métricas; algunos presentan ambas unidades.

Este instrumento es versátil por su diseño, pues permite medir en distintas formas.

El calibrador o vernier, conocido también como pie de rey, consiste usualmente en una regla fija de 12 cm con precisión de un milímetro, sobre la cual se desplaza otra regla móvil o reglilla. La reglilla graduada del vernier divide 9mm en 20 partes iguales de manera que pueden efectuarse lecturas con una precisión de un vigésimo de milímetro.

Otros instrumentos de medición

Se denomina dinamómetro a un operador técnico o instrumento inventado y fabricado que sirve para medir fuerzas. Fue inventado por Isaac Newton y no debe confundirse con la balanza, instrumento utilizado para medir masas.

Normalmente, un dinamómetro basa su funcionamiento en un resorte que sigue la Ley de Hooke (ley de elasticidad), siendo las deformaciones proporcionales a la fuerza aplicada.

Un barómetro es un instrumento que mide la presión atmosférica. La presión atmosférica representa el peso por unidad de superficie ejercida por la atmósfera.

Los primeros barómetros estaban formados por una columna de líquido encerrada en un tubo cuya parte superior está cerrada. El peso de la columna de líquido compensa exactamente el peso de la atmósfera. Los primeros barómetros fueron realizados por el físico y matemático italiano Evangelista Torricelli en el siglo XVII.

Los barómetros son instrumentos fundamentales para medir el estado de la atmósfera y realizar predicciones meteorológicas. Las altas presiones se corresponden con buen tiempo mientras que las bajas presiones son indicadores de regiones de tormentas.

Del barómetro se deriva un instrumento llamado barógrafo, que registra las fluctuaciones de la presión atmosférica a lo largo de un periodo de tiempo mediante una técnica muy similar a la utilizada en los sismógrafos.

La palabra cronómetro proviene de la Mitología griega, el nombre se le dio por el Dios griego Cronos que era el Dios del tiempo

El cronómetro es un reloj o una función de reloj que sirve para medir fracciones de tiempo, normalmente cortos y con gran precisión.

Empieza a contar desde 0 cuando se le pulsa un botón y se suele parar con el mismo botón.

Son habituales las medidas en centésimas de segundo, como en los relojes de pulsera o incluso milésimas de segundo.

Es ampliamente conocido su empleo en competencias deportivas así como en ciencia y tecnología.

Obtenido de "http://es.wikipedia.org/wiki/Cron%C3%B3metro

"

Un transportador es un instrumento de medición con forma de semicírculo o círculo graduado en grados utilizado para medir o construir ángulos. Los más frecuentes son aquellos con un máximo de 180º, si bien existen de 360º.

INSTRUMENTOS ÓPTICOS

En estos instrumentos se emplean espejos, tanto planos como esféricos, prismas y lentes. Los mismos son usados con el fin de apreciar los objetos con mayor nitidez, revelando detalles que no son observables a simple vista. Estos instrumentos pueden producir tanto imágenes reales como virtuales.

Las imágenes reales son producidas por aparatos tales como los proyectores, las cámaras fotográficas, en cambio las imágenes virtuales son producidas por la lupa, el microscopio y el telescopio.

Anteojo Astronómico o telescopio está constituido por la combinación de dos lentes y sirve para ver objetos lejanos. Con él se ven los objetos lejanos más grandes de lo que podemos verlos a simple vista, pero se ven invertidos.

El telescopio se inventó hacia 1610 pero no se sabe con exactitud quien lo hizo. Galileo, al enterarse de que los holandeses habían construido unas lentes con las que observaban objetos, construyó unas, las pulió, les dio la curvatura adecuada, e hizo con ellas un telescopio.

Estructura de un anteojo astronómico

Una lupa es una lente biconvexa (curvada por los 2 lados) montada en un soporte circular que, dependiendo de su diseño, y muy comúnmente, del uso específico en cierta área de trabajo o investigación, puede o no tener un mango para facilitar su manejo. El uso primordial de la lupa es el de ampliar pequeñas zonas para obtener una mejor visualización, por ejemplo, para leer, o ver algún objeto con más detalle.

La lupa es un instrumento u operador técnico que ha sido inventado y fabricado para hacer uso de principios de física referente a la óptica, pues la lente desvía la luz incidente de modo que se forma una imagen virtual ampliada del objeto por detrás de la misma. La imagen se llama virtual porque los rayos que parecen venir de ella no pasan realmente por ella.

Las lupas pueden ser de distintos tamaños, y dependiendo, el lente puede tener cierto grado de magnificación. Generalmente, las lupas de mayor diámetro son más potentes. Mas no todos los lentes de lupa son de forma circular, sino que hay algunos lentes que han sido hechos en forma cuadrangular o rectangular.

Un microscopio compuesto es un microscopio óptico que tiene más de un lente. Los microscopios compuestos se utilizan especialmente para examinar objetos transparentes o cortados en láminas tan finas que se transparentan. Se emplea para aumentar o ampliar las imágenes de objetos y organismos no visibles a simple vista. El microscopio óptico común está conformado por tres sistemas:

El sistema mecánico está constituido por una serie de piezas en las que van instaladas las lentes que permiten el movimiento para el enfoque.

El sistema óptico comprende un conjunto de lentes dispuestas de tal manera que produce el aumento de las imágenes que se observan a través de ellas.

El sistema de iluminación comprende las partes del microscopio que reflejan, transmiten y regulan la cantidad de luz necesaria para efectuar la observación a través del microscopio.

La parte mecánica del microscopio comprende el pie, el tubo, el revólver, el asa, la platina, el carro, el tornillo macrométrico y el tornillo micrométrico. Estos elementos sostienen la parte óptica y de iluminación, además permite los desplazamientos necesarios para el enfoque del objeto.

Periscopio. Proviene del griego peri- y -scopio, ("mirar en torno") es un instrumento para la observación desde una posición oculta.

En su forma sencilla es un tubo con un juego de espejos en los extremos, paralelos y en un ángulo de 45º respecto a la línea que los une. Se puede usar para ver sobre la cabeza de la gente en una multitud. Esta forma de periscopio, con la adición de simples lentes, fue usado para propósitos de observación en trincheras durante la Primera Guerra Mundial.

Los periscopios más complejos usan prismas en vez de espejos, y disponen de aumentos, como los usados en los submarinos.

El proyector diascópico es un aparato proyector de cuerpos transparentes, tales como películas, diapositivas, etc… este aparato es capaz de producir imágenes reales, invertidas de mayor tamaño que el objeto.

El proyector episcópico es un aparato proyector de cuerpos opacos (láminas de libros no transparentes), fotografías, etc… El consta de un sistema de iluminación constituida por una fuente de luz ubicada en el foco de un espejo cóncavo, un sistema reflector constituido por un espejo plano y por ultimo un sistema óptico constituido por una lente convergente capaz de recibir los rayos que provienen del espejo, formando con los rayos una imagen que se caracteriza por ser: real, derecha y de un tamaño mayor que el objeto.

El proyector epidiascópico es una aparato que sirve para proyectar simultáneamente tanto cuerpos opacos como cuerpos transparentes.

CONCLUSIÓN

Los instrumentos en los que se apoya la física para realizar su labor con mayor facilidad y eficacia se pueden clasificar en: instrumentos de medición e instrumentos ópticos.

Los instrumentos de medición a su vez se clasifican en instrumentos para medir masa, como la balanza y la báscula; para medir temperatura, como el termómetro; para medir propiedades eléctricas, como el amperímetro, el galvanómetro, el vatímetro; para medir longitud, como el metro, la regla, el calibrador; y otros como el dinamómetro encargado de medir fuerzas, el barómetro que mide la presión atmosférica, el cronómetro que mide pequeñas fracciones de tiempo y el transportador que sirve para medir y construir ángulos.

Así como los instrumentos de medición, los instrumentos ópticos también tienen su clasificación, pues éstos pueden producir tanto imágenes virtuales como imágenes reales; los que producen imágenes virtuales son los proyectores; y los encargados de producir imágenes reales son la lupa, el microscopio, el telescopio.

Cada uno de estos instrumentos presta su apoyo a la física de distintas maneras.

Cantidades Físicas

Las cantidades físicas son aquellas que combinados con números representan una magnitud. Ejemplo:

40N , .47ft , 3.28s

El sistema más utilizado es el sistema Internacional, aunque en algunos lugares todavía se utiliza el Sistema Inglés.

· Cantidades Físicas:

1. Unidades Fundamentales: masa, tiempo, longitud, intensidad de corriente, luminosa, cantidad de substancia, temperatura. (Kg, s, m, A, cd, mol, K)

2. Unidades Derivadas: volumen, fuerza, densidad, trabajo, etc… (m3, N=kgm/s2, Kg/m3, J=N*m9)

Multiplos SubmultiplosExa 1x1018 deci 1x10-1

Peta 1x1015 centi 1x10-2Tera 1x1012 mili 1x10-3Giga 1x109 micro 1x10-6Mega 1x106 nano 1x10-9Kilo 1x103 pico 1x10-12

Hecto 1x102 fento 1x10-15Deca 1x101 atto 1x10-18

Unidad1x100

Diferencia entre una magnitud escalar y una vectorial: La vectorial tiene sentido y dirección.

Glosario de Términos de Física

 

Física: viene del vocablo griego "physis", que significa "naturaleza". Ciencia que estudia, explica y describe en forma cuantitativa los fenómenos naturales, la materia y sus interacciones, los cuerpos, sus propiedades y los efectos que estos producen.

Mecánica: es la más antigua de las ciencias físicas, estudia el comportamiento los objetos materiales y tiene como especialidades la cinemática y la dinámica.

Cinemática: es la rama de la mecácnica que describe el movimiento de los objetos materiales.

Dinámica: es la rama de la mecánica que estudia la relación del movimiento de los objetos materiales con las fuerzas que los causan.

Estática: es la rama de la mecánica que estudia el equilibrio de los cuerpos. Una partícula se encuentra en equilibrio si la suma de todas las fuerzas que actúan sobre ella es cero.

Cantidades físicas: son elementos de construcción de la física, en función de los cuales se expresan las leyes de la misma. Por elemplo: fuerza, tiempo, velocidad, densidad, temperatura y muchas otras que existen en la Física.

Cantidades físicas fundamentales: son aquellas que no pueden ser definidas o expresadas a partir de otras, son: longitud, masa y tiempo (LMT). Pueden describirse conceptualmente y pueden ser medidas experimentalmente.

Cantidades físicas derivadas: son aquellas que se expresan en función de las cantidades físicas fundamentales (longitud, masa y tiempo LMT), mediante leyes válidas en cada dominio. Por ejemplo: área, volumen, fuerza, velocidad, densidad, etc. Son la mayoría de las cantidades físicas existentes.

Magnitudes físicas: son cualidades de un sistema o cantidad físico, a los que puede asignarse un número por comparación con la unidad de medida de la misma. En Física, representan el "tamaño" de las llamadas "cantidades físicas".

Fórmula Física: Conjunto de símbolos o conceptos relacionados algebraicamente en una expresión matemática (ecuación), que representan cantidades físicas determinadas, y que expresan concisamente la magnitud, y demás atributos de éstas que se quieren calcular. Las fórmulas físicas se establecen a partir de observaciones experimentales y nó, mediante el cálculo basado en una teoría.

Dimensión física: Cualidad de los cuerpos, sistemas o cantidades físicas, relativa a las propiedades de éstos y sus efectos en el espacio físico. Si el efecto es rectilíneo se habla de propiedad en una dirección (dimensión) 1D. Si el efecto es en un plano, se habla de propiedad en dos direcciónes (dimensión) 2D, y si el efecto es espacial, se dice que sus propiedades actúan en tres direcciónes (dimensión) 3D.

Fórmula Dimensional: Conjunto de símbolos que representan las cantidades físicas: longitud L, Masa M, tiempo T, Fuerza F, etc., asociados en una fórmula algebraica simple, cuyos exponentes expresan la dimensión de una cantidad derivada dada. Ejemplo:

, representa la fórmula dimensional de la aceleración.

Análisis dimensional: estudio de las leyes físicas desde el punto de vista de las unidades de cantidades que aparecen en ellas. El principio fundamental del análisis dimensional es el llamado principio de homogeneidad, que estipula que una condición necesaria para que una ley física sea válida, es que los dos miembros de la ecuación que representa la fórmula física tengan la misma fórmula dimensional.

Método científico: procedimiento que utilizan las ciencias basado en métodos experimentales, inductivos y deductivos, formulando leyes, principios y teorías referidas a fenómenos tanto naturales como artificiales, contribuyendo de ese modo al avance y desarrollo de la ciencia y del conocimiento en general. Los pasos a seguir en su aplicación son: a) Observación por medio de los sentidos y la ayuda de instrumentos b) Formulación de una hipótesis o posible explicación del fenómeno c) Verificación de la hipótesis por medio de experimentos con resultados reproducibles d) Enunciación de leyes y teorías que rigen el fenómeno una vez comprobada la hipótesis.

Método experimental: procedimiento científico que se funda en el uso de conocimientos previos, logrados a través de la observación y de la experimentación.

Método inductivo: procedimiento científico que parte de hechos individuales y concretos para remontarse a leyes generales que los interpretan.

Método deductivo: procedimiento científico que explica casos físicos particulares a partir de principios o leyes generales.

Medición física: medir es encontrar una relación (en números) de la magnitud, de una cantidad física, para compararla con otra de la misma especie elegida como unidad. Las mediciones son indispensables en la etapa experimental del método científico, buscan relacionar cuantitativamente las cantidades físicas que entran en juego en los fenómenos físicos.

Exactitud: de una medida es la diferencia entre el valor observado y el valor verdadero.

Precisión: Se refiere a un conjunto de medidas. La da la diferencia entre las medidas individuales. si los valores obtenidos se encuentran muy cercanos a un mismo valor, se dice que existe gran precisión en la medición (no implica exactitud).

Cifras significativas: son el resultado numérico de una medición determinada de alguna cantidad física. Contempla todas las cifras seguras o exactas (marcadas en la escala del instrumento de medida calibrado), más la primera cifra estimada. Sólo deben escribirse las cifras significativas.

Orden de magnitud de un número: es la potencia de base 10 más cercana al número, la primera aproximación al valor buscado. Por ejemplo:

es el mismo número con verdadera exactitud con el mismo número de cifras significativas (Notación Científica). Las expresiones: 3 m ó 300 cm ó 3000 mm se refieren a la misma longitud en distintas unidades. De este modo, están escritas con distinto número de cifras significaticvas: 1, 3 y 4 respectivamente (notación usual).

Sistemas de Unidades en Física: La medición "física" de las cantidades físicas, debe disponer de unidades apropiadas de medida, para hacer referencia a ellas y expresar cuantitativamente los diferentes fenómenos

CANTIDADES ESCALARES Y VECTORIALES

En este tema se introduce el concepto de vector para estudiar la magnitud, la dirección y el sentido de las cantidades físicas.

Algunas cantidades pueden ser descritas totalmente por un número y una unidad; por ejemplo las magnitudes de superficie, volumen, masa, longitud y tiempo reciben el nombre de magnitudes escalares.

Por definición, una magnitud escalar es aquella que se define con sólo indicar su cantidad expresada en números y la unidad de medida.

Existe otra clase de magnitudes que para definirlas, además de la cantidad expresada en números y el nombre de la unidad de medida, se necesita indicar claramente la dirección y sentido en que actúan; estas magnitudes reciben el nombre de magnitudes vectoriales. Por ejemplo, cuando una persona visita la ciudad de Mérida, Yucatán, y nos pregunta cómo llegar al puerto de Progreso, dependiendo de dónde se encuentre le diremos aproximadamente a qué distancia está y qué dirección seguir. Lo mismo sucede cuando se habla de la fuerza que se debe aplicar a un cuerpo, pues aparte de señalar su valor se debe especificar si la fuerza se aplicará hacia arriba o hacia abajo, a la derecha o a la izquierda, hacia el frente o hacia atrás.

Una magnitud vectorial se define por su origen, magnitud, dirección y sentido. Consiste en un número, una unidad y una orientación angular.

Como se señaló en el tema anterior, una cantidad vectorial es aquel que tiene una magnitud, dirección y sentido, como por ejemplo un automóvil que lleva una velocidad de 80 km/h al Noreste, o un desplazamiento de un móvil de 5 km a 40° al Suroeste.

Una magnitud vectorial puede ser representada gráficamente por medio de una flecha llamada vector, la cual es un segmento de recta dirigido. Para simbolizar una magnitud vectorial se traza una flechita horizontal sobre la letra que la define por ejemplo: representan cada una un vector como son la velocidad, el desplazamiento, la fuerza y la aceleración, respectivamente.

REPRESENTACIÓN GRAFICA DE UN VECTOR

Un vector tiene las siguientes características

Punto de aplicación u origen Magnitud. Indica su valor y representa por la longitud del vector de acuerdo con

una escala convencional. Dirección. Señala la línea sobre la cual actúa, y puede ser horizontal, vertical u

oblicua. Sentido. Indica hacia donde va el vector, ya sea hacia arriba, abajo, a la derecha o

a la izquierda, y queda señalado por la punta de la flecha. Para representar un vector se necesita una escala convencional, la cual se establece de acuerdo con la magnitud del vector y el tamaño que se le desee dar.

Vectores Coplanares y no Coplanares

Los vectores pueden clasificarse en coplanares, si se encuentran en el mismo plano o en dos ejes, y no coplanares si están en diferente plano, es decir en tres planos.

Sistema de vectores colineales Se tiene un sistema de vectores colineales cuando dos o mas vectores se encuentran en la misma dirección o línea de acción. Un vector colineal cera positivo si su sentido es hacia la derecha o hacia arriba y negativo si su sentido es hacia la izquierda o hacia abajo.

Sistema de vectores concurrentes

Un sistema de vectores es concurrente cuando la dirección o línea de acción de los vectores se cruza en algún punto, el punto de cruce constituye el punto de aplicación. A estos vectores se les llama angulares o concurrentes porque forman un ángulo entre ellos.

Sistema de vectores paralelos.

Son aquellos vectores que por más que alargan su trayectoria, jamás se pueden unir.

Resultante y equilibrante de un sistema de vectores

La resultante de un sistema de vectores es el vector que produce él solo, el mismo efecto que los demás vectores del sistema. Por ello un vector resultante es aquel capaz de sustituir un sistema de vectores.

La equilibrante de un sistema de vectores, como su nombre lo indica, es el vector encargado de equilibrar el sistema, por lo tanto tiene la misma magnitud y dirección que la resultante, pero con sentido contrario.

Propiedades de los vectores (principio de transmisibilidad y propiedad de los vectores libres.

Principio de transmisibilidad de los vectores.- Este principio se enuncia como “ El efecto externo de un vector o fuerza no se modifica si es trasladado en su misma dirección, es decir sobre su propia línea de acción”. Por ejemplo si se desea mover un cuerpo horizontalmente, aplicando una fuerza, el resultado seá el mismo si empujamos el cuerpo o si lo jalamos,Propiedad de los vectores libres.- Los vectores no se modifican si se trasladan paralelamente a sí mismos. Esta propiedad se utilizará al sumar vectores por los métodos gráficos del paralelogramo y del polígono.

SUMA DE VECTORES.

Cuando necesitamos sumar 2 o más cantidades escalares de la misma especie lo hacemos aritméticamente: por ejemplo 2 kg + 5 kg = 7 kg, 3 horas + 7 horas= 10 horas, 200 km + 300 km = 500 km. Sin embargo para sumar magnitudes vectoriales, que como ya se mencionó aparte de magnitud tienen dirección y sentido, debemos utilizar métodos diferentes a una simple suma aritmética. Estos métodos pueden ser gráficos o analíticos.

SUMA GRÁFICA de VECTORES

Para realizar la suma gráfica de dos vectores, utilizamos el "método del paralelogramo". Para ello, trazamos en el extremo del vector A, una paralela al vector B y viceversa. Ambas paralelas y los dos vectores, determinan un paralelogramo. La diagonal del paralelogramo, que contiene al punto origen de ambos vectores, determina el vector SUMA. Puedes ver un ejemplo en el gráfico que va a continuación:

 

Si tenemos que sumar varios vectores, podemos aplicar el método anterior, sumando primero dos y a la suma, añadirle un tercero y así sucesivamente. Pero también podemos hacerlo colocando en el extremo del primer vector, un vector igual en módulo, dirección y sentido que el segundo. A continuación de éste, colocamos un vector equivalente al tercero y así sucesivamente. Finalmente, unimos el origen del primer vector con el extremo del último que colocamos y, el vector resultante es el vector suma.

METODO PARALELOGRAMO

En este método, los vectores se deben trasladar (sin cambiarle sus propiedades) de tal forma que la "cabeza" del uno se conecte con la "cola" del otro (el orden no interesa, pues la suma es conmutativa). El vector resultante se representa por la "flecha" que une la "cola" que queda libre con la "cabeza" que también está libre (es decir se cierra un triángulo con un "choque de cabezas”. En la figura 1 se ilustra el método.

Figura 1

En la figura 1 el vector de color negro es la suma vectorial de los vectores de color rojo y de color azul.

Si la operación se hace gráficamente con el debido cuidado, sólo bastaría medir con una regla el tamaño del vector de color negro utilizando la misma escala que utilizó para dibujar los vectores sumandos (el rojo y el azul). Esa sería la magnitud de la suma. La dirección se podría averiguar midiendo con un transportador el ángulo que forma con una línea horizontal.

Pero no nos basta con saberlo hacer gráficamente. Tendremos que aprenderlo a realizar analíticamente. Para ello se deben utilizar los teoremas del seno y del coseno y si es un triángulo rectángulo se utilizará el teorema de Pitágoras.

En el caso de la figura 1 las relaciones posibles entre los lados de ese triángulo son las siguientes:

Ejemplo:

Supongamos que en dicha figura los vectores sean la magnitud fuerza. Asumamos además que el ángulo entre los vectores sumandos (el rojo y el azul) es igual a 60.0º y que sus módulos son respectivamente 100 dinas (rojo) y 90.0 dinas (azul). Deseamos calcular el vector resultante.

Para ello empleemos la relación:

su dirección sería:

Método del polígono

Cuando vamos a sumar más de dos vectores, podemos sumar dos de ellos por el método del triángulo. Luego el vector resultante sumarlo con otro vector también por el método del triángulo, y así sucesivamente hasta llegar a obtener la resultante final.

Otra forma de hacer la suma, es utilizando el llamado método del polígono. Este método es simplemente la extensión del método del triángulo. Es decir, se van desplazando los vectores para colocarlos la "cabeza" del uno con la "cola" del otro (un "trencito") y la resultante final es el vector que cierra el polígono desde la "cola" que quedo libre hasta la "cabeza" que quedo también libre (cerrar con un "choque de cabezas"). Nuevamente el orden en que se realice la suma no interesa, pues aunque el polígono resultante tiene forma diferente en cada caso, la resultante final conserva su magnitud, su dirección y su sentido.

Este método sólo es eficiente desde punto de vista gráfico, y no como un método analítico. En la figura 1se ilustra la suma de cuatro vectores.

Figura 1

Medición de corriente a traves de un amperímetro

Amperímetro

Un amperímetro es un instrumento que sirve para medir la intensidad de corriente que está circulando por un circuito eléctrico.

Los amperímetros, en esencia, están constituidos por un galvanómetro cuya escala ha sido graduada en amperios.

El aparato descrito corresponde al diseño original, ya que en la actualidad los amperímetros utilizan un conversor analógico/digital para la medida de la caída de tensión sobre una resistencia por la que circula la corriente a medir. La lectura del conversor es leída por un microprocesador que realiza los cálculos para presentar en un display numérico el valor de la corriente circulante.

Un amperímetro es un medidor eléctrico.

UTILIZACIÓN

Para efectuar la medida de la intensidad de la corriente circulante el amperímetro ha de colocarse en serie, para que sea atravesado por dicha corriente. Esto nos lleva a que el amperímetro debe poseer una resistencia interna lo más pequeña posible, a fin de que no produzca una caída de tensión apreciable. Para ello, en el caso de instrumentos basados en los efectos electromagnéticos de la corriente eléctrica, estarán dotados de bobinas de hilo grueso y con pocas espiras.

En algunos casos, para permitir la medida de intensidades superiores a las que podrían soportar los devanados y órganos mecánicos del aparato sin destruirse, se les dota de una resistencia de muy pequeño valor colocada en paralelo con el devanado, de forma que solo pase por este una fracción de la corriente principal. A esta resistencia adicional se le denomina shunt.

Figura 1.- Conexión de un amperímetro en un circuito

En la Figura 1 se puede observar la conexión de un amperímetro (A) en un circuito, por el que circula una corriente de intensidad (I).Asimismo, se muestra la conexión de la resistencia shunt (RS).

El valor de RS se calcula en función del poder multiplicador (n) que queremos obtener y de la resistencia interna del amperímetro (RA) según la fórmula siguiente:

Así si queremos que un amperímetro con resistencia interna de 5 ohmios, que, sin shunt, puede medir un máximo de 1 A pueda medir hasta 10 A, el shunt debe tener un poder multiplicador de 10, por tanto RS deberá ser de 5/9=0.555 Ω.

AMPERÍMETROS

La corriente es una de las cantidades más importante que uno quisiera medir en un circuito eléctrico. Se conoce como amperímetro al dispositivo que mide corriente. La corriente que se va a medir debe pasar directamente por el amperímetro, debido a que éste debe conectarse a la corriente, como se muestra en la siguiente figura:

Los alambres debe cortarse para realizar las conexiones en el amperímetro. Cuando use éste instrumento para medir corriente continuas, asegúrese de conectarlo de modo que la corriente entre en la terminal positiva del instrumento y salga en la terminal negativa. Idealmente, un amperímetro debe tener resistencia cero de manera que no altere la corriente que se va a medir. En el circuito indicado, esta condición requiere que la resistencia del amperímetro sea pequeña con R1 + R2. Puesto que cualquier amperímetro tiene siempre alguna resistencia, su presencia en el circuito reduce ligeramente la corriente respecto de su valor cuando el amperímetro no está presente

Para que un galvanómetro funcione como amperímetro hay que tener en cuenta que por el fino hilo de la bobina de un galvanómetro sólo puede circular una intensidad de

corriente pequeña. Si hay que medir intensidades mayores, se acopla una derivación de baja resistencia, denominada shunt, a los terminales del medidor. La mayor parte de la corriente pasa por la resistencia de la derivación, pero la pequeña cantidad que fluye por el medidor sigue siendo proporcional a la intensidad total. Al utilizar esta proporcionalidad, el galvanómetro se puede emplear para medir intensidades de varios cientos de amperios.

Un microamperímetro está calibrado en millonésimas de amperio y un miliamperímetro en milésimas de amperio.

ELECTROSTÁTICA

La electrostática se encarga del estudio de las cargas eléctricas, las fuerzas que se ejercen entre ellas y su comportamiento en los materiales

Las fuerzas eléctricas provienen de las partículas que componen los átomos, esto es los protones (con carga +), los eléctrones (con carga -) y los neutrones (con carga neutra, por lo que no atrae ni rechaza a los electrones ó a los protones).

La carga permite que exista el comportamiento de atracción y repulsión. La regla fundamental y básica que subyace a todo fenómeno eléctrico nos dice:

        "LAS CARGAS ELÉCTRICAS IGUALES SE REPELEN; LAS CARGAS OPUESTAS SE ATRAEN".

  Ión: Este nombre lo recibe cualquier átomo con carga, puede ser negativo (si ha

ganado eléctrones), ó positivo (si ha perdido electrones).

Todo objeto cuyo número de electrones sea distinto al de protones tiene carga eléctrica. Si tiene más electrones que protones, la carga es negativa. Si tiene menos electrones que protones, la carga es positiva.

Los electrones no se crean ni se destruyen, sino simplemente se transfieren de un material a otro. LA CARGA SE CONSERVA.

Un punto importante, es que un átomo siempre va a perder ó ganar electrones, nunca protones, ya que son los electrones los que se mueven de un material a otro.

QUÉ ES LA ELECTROSTÁTICA

Texto e ilustraciones José Antonio E. García Álvarez

Desde la antigüedad ya los griegos habían observado que cuando frotaban enérgicamente un trozo de ámbar, podía atraer objetos pequeños.

Posiblemente el primero en realizar una observación científica de ese fenómeno fue el sabio y matemático griego Thales de Mileto, allá por el año 600 A.C., cuando se percató que al frotar el ámbar se adherían a éste partículas del pasto seco, aunque no supo explicar la razón por la cual ocurría ese fenómeno.

Trozo de ámbar

No fue hasta 1660 que el médico y físico inglés William Gilbert, estudiando el efecto que se producía al frotar el ámbar con un paño, descubrió que el fenómeno de atracción se debía a la interacción que se ejercía entre dos cargas eléctricas estáticas o carente de movimiento de diferentes signos, es decir, una positiva (+) y la otra negativa (–). A ese fenómeno físico Gilbert lo llamó “electricidad”, por analogía con “elektron”, nombre que en griego significa ámbar.

En realidad lo que ocurre es que al frotar con un paño el ámbar, este último se electriza debido a que una parte de los electrones de los átomos que forman sus moléculas pasan a integrarse a los átomos del paño con el cual se frota. De esa forma los átomos del ámbar se convierten en iones positivos (o cationes), con defecto de electrones y los del paño en iones negativos (o aniones), con exceso de electrones.

A.- Trozo de ámbar y trozo de paño con las cargas eléctricas de sus átomos equilibradas. B.- Trozo de. ámbar electrizado con carga estática positiva, después de haberlo frotado con el  paño.  Los  electrones< del ámbar han pasado al paño, que con esa acción éste adquiere carga negativa.

Para que los átomos del cuerpo frotado puedan restablecer su equilibrio atómico, deben captar de nuevo los electrones perdidos. Para eso es necesario que atraigan otros cuerpos u objetos que le cedan esos electrones. En electrostática, al igual que ocurre con los polos de un imán, las cargas de signo diferente se atraen y las del mismo signo se repelen.

A.- Montoncitos de papeles recortados. B.- Peine cargado electrostáticamente con defecto de electrones. después  de  habernos  peinado  con  el  mismo.  C.- Los  papelitos  son  atraídos  por  el  peine< restableciéndose,  de esa forma, el equilibrio electrónico de los átomos que lo componen ( los papeles le. ceden a éste los electrones que perdieron al pasárnoslo por el pelo ).

Tormenta eléctrica

Una manifestación de carga estática la tenemos en las nubes cuando se generan tormentas eléctricas con rayos. Cuando una nube se encuentra completamente ionizada o cargada positivamente, se establece un canal o conducto natural que es capaz de atraer iones cargados negativamente desde la Tierra hasta la nube. Cuando los iones negativos procedentes de la Tierra hacen contacto con la nube, se produce el rayo al liberar ésta la enorme carga de corriente eléctrica estática acumulada.

Otro ejemplo lo tenemos en los vehículos, que al desplazarse a través de la masa de aire que lo rodea, adquieren carga estática. Cuando eso ocurre podemos llegar a sentir una descarga o calambrazo eléctrico en el cuerpo al tocar alguna de las partes metálicas del vehículo.

Las máquinas fotocopiadoras e impresoras láser hacen uso práctico de la carga eléctrica estática. Su principio de funcionamiento se basa en que un rayo de luz ilumina la imagen o

texto por medio de un proceso de escaneo y la transfieren a un tambor fotosensible como carga estática. El polvo de impresión o toner, que posee características magnéticas, al pasar al tambor se adhiere a las partes sensibilizadas por el rayo de luz. A continuación cuando el papel pasa por el tambor fotosensible, el polvo del toner se desprende y se adhiere a su superficie, transfiriendo así todo el contenido del tambor. Para que el polvo del toner no se desprenda del papel antes de salir de la fotocopiadora o impresora, se hace pasar por un rodillo caliente que se encarga de fijarlo de forma permanente.

Carga eléctrica - ¿Cómo se define un campo eléctrico?

El concepto físico de campoLas cargas eléctricas no precisan de ningún medio material para ejercer su influencia sobre otras, de ahí que las fuerzas eléctricas sean consideradas fuerzas de acción a distancia. Cuando en la naturaleza se da una situación de este estilo, se recurre a la idea de campo para facilitar la descripción en términos físicos de la influencia que uno o más cuerpos ejercen sobre el espacio que les rodea.La noción física de campo se corresponde con la de un espacio dotado de propiedades medibles. En el caso de que se trate de un campo de fuerzas éste viene a ser aquella región del espacio en donde se dejan sentir los efectos de fuerzas a distancia. Así, la influencia gravitatoria sobre el espacio que rodea la Tierra se hace visible cuando en cualquiera de sus puntos se sitúa, a modo de detector, un cuerpo de prueba y se mide su peso, es decir, la fuerza con que la Tierra lo atrae. Dicha influencia gravitatoria se conoce como campo gravitatorio terrestre. De un modo análogo la física introduce la noción de campo magnético y también la de campo eléctrico o electrostático.

El campo eléctricoEl campo eléctrico asociado a una carga aislada o a un conjunto de cargas es aquella región del espacio en donde se dejan sentir sus efectos. Así, si en un punto cualquiera del espacio en donde está definido un campo eléctrico se coloca una carga de prueba o carga testigo, se observará la aparición de fuerzas eléctricas, es decir, de atracciones o de repulsiones sobre ella.

¿Cómo se define el vector intensidad de campo eléctrico? La fuerza eléctrica que en un punto cualquiera del campo se ejerce sobre la carga unidad positiva, tomada como elemento de comparación, recibe el nombre de intensidad del campo eléctrico y se representa por la letra E. Por tratarse de una fuerza la intensidad del campo eléctrico es una magnitud vectorial que viene definida por su módulo E y por su dirección y sentido. En lo que sigue se considerarán por separado ambos aspectos del campo E.

¿Cuál es su expresión matemática?La expresión del módulo de la intensidad de campo E puede obtenerse fácilmente para el caso sencillo del campo eléctrico creado por una carga puntual Q sin más que combinar la ley de Coulomb con la definición de E.

La fuerza que Q ejercería sobre una carga unidad positiva 1+ en un punto genérico P distante r de la carga central Q viene dada, de acuerdo con la ley de Coulomb, pero aquélla es precisamente la definición de E y, por tanto, ésta será también su expresión matemáticaPuesto que se trata de una fuerza electrostática estará aplicada en P, dirigida a lo largo de la recta que une la carga central Q y el punto genérico P, en donde se sitúa la carga unidad, y su sentido será atractivo o repulsivo según Q sea negativa o positiva respectivamente.Si la carga testigo es distinta de la unidad, es posible no obstante determinar el valor de la fuerza por unidad de carga en la forma:Donde F es la fuerza calculada mediante la ley de Coulomb entre la carga central Q y la carga de prueba o testigo q empleada como elemento detector del campo. Es decir:E=KQq/rª /=KQ/rª expresión idéntica a la (9.2).A partir del valor de E debido a Q en un punto P y de la carga q situada en él, es posible determinar la fuerza F en la formaF = q · E (9.4)Expresión que indica que la fuerza entre Q y q es igual a q veces el valor de la intensidad de campo E en el punto P.Esta forma de describir las fuerzas del campo y su variación con la posición hace más sencillos los cálculos, particularmente cuando se ha de trabajar con campos debidos a muchas cargas.La unidad de intensidad de campo E es el cociente entre la unidad de fuerza y la unidad de carga; en el SI equivale, por tanto, al newton (N)/coulomb (C).

Trabajo eléctrico

 

Si sometemos una carga puntual ante la presencia de un campo eléctrico, la carga experimentara una fuerza eléctrica:

 

Sin embargo, si requerimos de establecer un equilibrio para la partícula o desplazar las partícula con velocidad constante se requiere de otra fuerza que contrarreste el efecto la fuerza generada por el campo eléctrico, esta fuerza deberá tener la misma magnitud que la primera, pero dirección contraria, es decir:

 

 

Partiendo de la definición clásica de trabajo, sabemos que el trabajo se define como el producto de una fuerza que actúa a distancia. Así, en este caso, se realizará un trabajo para trasladar una fuerza de un punto a otro. De tal forma que al aplicar un pequeño desplazamiento dl se generara un diferencial de trabajo dW. Es importante resaltar que el trabajo realizado por la partícula realizara un trabajo positivo o negativo dependiendo de cómo sea el desplazamiento en relación con la fuerza Fa . Un diferencial de trabajo queda expresado como:

 

 

   

Nótese que en el caso de que la fuerza no este en la dirección del desplazamiento, debemos solo multiplicar por su componente en la dirección del movimiento. Como en la definición propia del trabajo se tiene un producto escalar, el producto Fa es justificado, es decir, la proyección de Fa sobre el vector desplazamiento.

 

Retomando el trabajo positivo y negativo, será considerado como un trabajo positivo aquel trabajo realizado por un agente externo al sistema carga-campo para ocasionar un cambio de oposición. En el caso que el trabajo tenga un signo negativo se deberá de interpretarse como el trabajo realizado por el campo.

 

Recordemos que los diferenciales de línea pueden ser expresados como:

 

 

 

Sustituyendo la fuerza en función del campo tendremos:

 

 

por lo tanto podemos expresar el campo por:

 

si el trabajo que se realiza en cualquier trayectoria cerrada es igual a cero entonces se dice que estamos en presencia de un campo eléctrico conservativo.

 

 

lo que también es equivalente a decir que el rotacional del campo eléctrico es igual a cero:

 

 

 

Potencial eléctrico

 

Se define el potencial se define como el trabajo realizado para trasladar un objeto de un punto a otro. En particular, para el caso eléctrico, definimos el potencial eléctrico del punto A al punto B, como el trabajo realizado para trasladar una carga positiva unitaria q de un punto a otro, desde B hasta A.

 

 

 

las unidades para el potencial eléctrico son de (Joules/Coulombs o Volts). Nótese además que el trabajo que hemos sustituido en la ecuación proviene de la construcción de trabajo eléctrico.

 

Si consideramos que hemos construido la noción de potencial eléctrico en base a la construcción de un campo conservativo, esto del hecho de suponer una fuerza que tienda a contrarrestar la fuerza del campo para mantener la partícula cargada en equilibrio estático.

Analicemos el potencial eléctrico necesario para desplazar una carga puntual desde un punto B a un punto A.

Recordemos primero que el campo de una carga puntual esta determinado en forma radial como se muestra a continuación, sin embargo, recordemos que el hecho de haber tomado un campo conservativo le resta importancia a ese hecho.

 

 

 

sustituyendo en la ecuación que define al campo eléctrico tendríamos:

 

Obsérvese que se ha tomado el diferencial de línea de las coordenadas esféricas.

El potencial de una distribución de carga

  Cuando existe una distribución de carga en un volumen finito con una densidad de carga conocida entonces puede determinarse el potencial en un punto externo, esto por que la definición de potencial involucra el campo eléctrico.

 

Si analizamos el potencial originado por cada diferencial de carga tendremos:

 

 

 

 

 

 

Finalmente podemos integrar sobre todo el volumen para obtener:

 

 

Nótese que la variable R es la distancia a al punto con respecto a cada diferencial de volumen en cada punto del objeto cargado y por tanto depende de las coordenadas, lo cual implica el hecho de no poder sacarlo de la integral. No deberá de confundir la variable r con la variable R.

 

De manera similar podemos encontrar el potencial eléctrico de cualquier distribución, bien sea de línea o de superficie y que puede ser expresados como:

 

Para configuraciones de superficie:

 

 

Para configuraciones de línea:

 

donde es la densidad superficial, es la densidad lineal.

 

Forma diferencial del potencial eléctrico

Recordamos que el potencial eléctrico puede ser expresado como:

 

También recordemos que el diferencial de una función se puede expresar como:

 

 

por lo que un diferencial de un potencial eléctrico puede ser expresado como:

 

 

 

Si sacamos el diferencial al potencial en la ecuación que relaciona con el campo eléctrico tendremos:

 

pero y por último si consideramos que para tenemos un

desplazamiento pequeño tendremos:

 

 .- ¿Qué es capacitancia?

Se define como la razón entre la magnitud de la carga de cualquiera de los conductores y la magnitud de la diferencia de potencial entre ellos.

La capacitancia siempre es una cantidad positiva y puesto que la diferencia de potencial aumenta a medida que la carga almacenada se incrementa, la proporción Q / V es constante para un capacitor dado. En consecuencia la capacitancia de un dispositivo es una medida de su capacidad para almacenar carga y energía potencial eléctrica.

La capacitancia tiene la unidad del SI coulomb por volt. La unidad de capacitancia del SI es el farad (F), en honor a Michael Faraday.

CAPACITANCIA = 1F = 1 C

1 V

El farad es una unidad de capacitancia muy grande. En la práctica los dispositivos comunes tienen capacitancia que varían de microfarads a picofarads.

La capacitancia de un dispositivo depende entre otras cosas del arreglo geométrico de los conductores.

2.- ¿Qué es un capacitor?

Considere dos conductores que tienen una diferencia de potencial V entre ellos. Supongamos que tienen cargas iguales y opuestas, como en la figura. Una combinación de este tipo se denomina capacitor . La diferencia de potencial V es proporcional a la magnitud de la carga Q del capacitor.(Esta puede probarse por la Ley de coulomb o a través de experimentos.

-Qjg

Un capacitor se compone de dos conductores aislados eléctricamente uno del otro y de sus alrededores. Una vez que el capacitor se carga, los dos conductores tienen cargas iguales pero opuestas.

3.- ¿Cuáles son los tipos de capacitores?

Los capacitores comerciales suelen fabricarse utilizando láminas metálicas intercaladas con delgadas hojas de papel impregnado de parafina o Mylar, los cuales sirvan como material dieléctrico. Estas capas alternadas de hoja metálica y dieléctrico después se enrollan en un cilindro para formar un pequeño paquete. Los capacitores de alto voltaje por lo común constan de varias placas metálicas entrelazadas inmersas en aceite de silicón. Los capacitores pequeños en muchas ocasiones se construyen a partir de materiales cerámicos. Los capacitores variables (comúnmente de 10 a500 pF) suelen estar compuestos de dos conjuntos de placas metálicas entrelazadas, uno fijo y el otro móvil, con aire como el dieléctrico.

Un capacitor electrolítico se usa con frecuencia para almacenar grandes cantidades de carga a voltajes relativamente bajos. Este dispositivo, mostrado en la figura consta de una hoja metálica en contacto con un electrolito, es decir, una solución que conduce electricidad por virtud del movimiento de iones contenidos en la solución. Cuando se aplica un voltaje entre la hoja y el electrolito, una delgada capa de óxido metálico (un aislador) se forma en la hoja y esta capa sirve como el dieléctrico. Pueden obtenerse valores muy grandes de capacitancia debido a que la capa del dieléctrico es muy delgada y por ello la separación de placas es muy pequeña.

Cuando se utilizan capacitores electrolíticos en circuitos , la polaridad (los signos más y menos en el dispositivo) debe instalarse de manera apropiada. Si la polaridad del voltaje es aplicado es opuesta a la que se pretende, la capa de óxido se elimina y el capacitor conduce electricidad en lugar de almacenar carga.

Placas

Lamina electrolito caso

metálica

Contactos

Aceite Línea metálica

Papel +capa de óxido

Capacitor de placas paralelas

Dos placas paralelas de igual área A están separadas por una distancia d, como en la figura. Una placa tiene carga Q, la otra carga -Q. La carga por unidad de área sobre cualquier placa es = Q /A. Si las placas están muy cercanas una de la otra (en comparación con su longitud y ancho), podemos ignorar los efectos de borde y suponer que el campo eléctrico es uniforme entre las placas y cero en cualquier otra parte.

El campo eléctrico entre las placas es:

E = = Q donde o es:

o oA 8.85*10-12

Donde o es la permitividad del espacio libre. La diferencia de potencial entre las placas es igual a Ed; por lo tanto,

V =Ed = Qd

oA

Al sustituir este resultado en la ecuación de capacitancia, encontramos que la capacitancia es igual a,

C = Q = __Q_____

V Qd / oA

Es decir, la capacitancia de un capacitor de placas paralelas es proporcional al área de sus placas e inversamente proporcional a la separación de estas.

+ Q

- Q

Area = A

d

Un capacitor de placas paralelas se compone de dos placas paralelas cada una de área A, separadas por una distancia d. Cuando se carga el capacitor, las cargas tienen cargas iguales de signo opuesto.

Capacitor cilíndrico

Un conductor cilíndrico de radio a y carga Q es coaxial con un cascaron cilíndrico más grande de radio b y carga -Q con una longitud l.

Suponiendo que l es grande comparada con a,b, podemos ignorar los efectos del borde. En este caso, el campo es perpendicular a los ejes de los cilindros y está confinado a la región entre ellos ;como se ve en la figura. Se debe calcular primero la diferencia de potencial entre los dos cilindros, la cual está dada por lo general por

b

Vb - Va = "a E * ds

Donde E es el campo eléctrico en la región a<r<b. Utilizando la ley de Gauss se demostró que el campo eléctrico de un cilindro de carga por unidad de longitud es E = 2ke / r. El mismo resultado se aplica aquí debido a que el cilindro exterior no contribuye al campo eléctrico dentro de él. Con este resultado y notando que E esta a lo largo de r en la figura encontramos que:

b b

Vb - Va = "a Er dr = -2ke "a dr / r =-2keln(b / a)

Al sustituir esto en la ecuación de capacitancia y utilizando el hecho de que =Q /l obtenemos:

C = Q = ______Q_______ = ________l_____

V 2ke ln (b) 2ke ln (b)

l (a) (a)

Donde V es la magnitud de la diferencia de potencial, dada por 2ke ln (b/a), una cantidad positiva. Es decir V =Va -Vb es positiva debido a que el cilindro interior está a un potencial mayor. El resultado nos muestra que la capacitancia es proporcional a la longitud de los cilindros. La capacitancia en este caso depende de los radios de los cilindros conductores.

l

b)

a) Superficie gausiana

a)El capacitor cilíndrico se compone de un conductor cilíndrico de radio a y la longitud l rodeado por un cascaron cilíndrico coaxial de radio b.

b)Vista lateral de un capacitor cilíndrico. La línea punteada representa el final de la superficie gaussiana cilíndrica de radio r y longitud l.

Capacitor esférico

Un capacitor esférico consta de un cascarón esférico de radio b y carga -Q concéntrico con una esfera conductora más pequeña de radio a y carga Q.

El campo fuera de una distribución de carga simétrica esfericamente es radial y está dado por ke Q / r2. En este caso, corresponde al campo entre las esferas (a<r<b). (El campo es cero en cualquier otro lado). De la ley de Gauss vemos que sólo la esfera interior contribuye a este campo. De este modo, la diferencia de potencial entre las esferas está dada por

b b b

Vb - Va = - "a Er dr = keQ "a dr /r2 =keQ[1/r]a

Vb - Va = keQ(1 / b -1/ a)

La magnitud de la diferencia de potencial es:

V = Va -Vb = kQ (b - a)

ab

Sustituyendo esto en la ec. de capacitancia, obtenemos

- Q

Un capacitor esférico consta de una esfera interior de radio a rodeada por un casacaron esférico de radio b. El campo eléctrico entre las esfera apunta radialmente hacia fuera si la esfera interior está cargada positivamente.

Combinaciones de capacitores

Es común que dos o más capacitores se combinen de varias maneras . La capacitancia equivalente de ciertas combinaciones puede calcularse utilizando métodos como son la combinación en paralelo o en serie. Los símbolos de circuitos para capacitores y baterías, junto con sus códigos de color, se muestran en la figura. La terminal positiva de la batería esta al potencial más alto y se representa por la línea vertical más larga en el símbolo de la batería.

Símbolo de Símbolo de Símbolo de

Capacitor batería interruptor

- +

se nota que los capacitores están en verde y las baterías y los interruptores en verde.

Combinación en paralelo

La diferencia de potencial que existe es a través de cada capacitor en el circuito paralelo es la misma e igual a l voltaje de la batería.

C1

Q1

C2

Q2

+ -

V

Combinación en serie

Para está combinación en serie de capacitores, la magnitud de la carga debe ser la misma en todas las placas.

V1 C1 V2 C2

+Q -Q +Q -Q

+ -

V

También existen capacitores con dieléctricos (que es un material no conductor como, el caucho, vidrio o papel). Cuando un material dieléctrico se inserta entre las placas de un capacitor aumenta la capacitancia. Si el dieléctrico llena por completo el espacio entre las placas, la capacitancia aumenta en un factor adimensional K, conocido como la constante dieléctrica.

Dieléctrico

Co

+ - Qo

V

4.-Menciona dos ejemplos de calculo de capacitancia:

Problema 1

Un capacitor de placas paralelas tiene un área A = 2.00 * 10-4 m2 y una separación de placa d =1.00mm. encuentre su capacitancia.

C = oA

d

C = (8.85*10-12C2/N* m2) (2.00*10-4 m2 /1.00*10-3m)

C =1.77 * 10-12 F = 1.77 pF

Si la separación se incrementa a 3.00mm determine la capacitancia

C = (8.85*10-12C2/N* m2) (2.00*10-4 m2 /3.00*10-3m)

C =0.590 pF

Problema 2

Las placas de un capacitor de placas paralelas miden 2.0 cm * 3.0 cm y están separadas por un espesor de papel de 1.0 mm.

Determine la capacitancia de este dispositivo.(puesto que K =3.7 para el papel)

C =K oA

d

C =3.7 (8.85*10-12C2/N* m2) (6.0*10-4 m2 /1.0*10-3m)

C =20 * 10-12 F =20 pF

Electricidad y Magnetismo

- Q

+Q

C = oA

d

C =Q

V

C =________l_____

2ke ln (b)

(a)

b

a

r Q

b

a

C =Q = ab

V ke (b-a)

Ceq = C1 + C2

ó

Ceq = C1 + C2 + C3 + ...

1 = 1 + 1 + 1 + ....

Ceq C1 C2 C3

C =K oA

d

+Q

Resistencia

El ensayo normal a la tensión se emplea para obtener varias características y resistencias que son útiles en el diseño.

El punto P recibe el nombre de límite de proporcionalidad (o límite elástico proporcional). Éste es el punto en que la curva comienza primero a desviarse de una línea recta. El punto E se denomina límite de elasticidad (o límite elástico verdadero ). No se presentará ninguna deformación permanente en la probeta si la carga se suprime en este punto. Entre P y E el diagrama no tiene la forma de una recta perfecta aunque el material sea elástico. Por lo tanto, la ley de Hooke, que expresa que el esfuerzo es directamente proporcional a la deformación, se aplica sólo hasta el límite elástico de proporcionalidad.

Muchos materiales alcanzan un estado en el cual la deformación comienza a crecer rápidamente sin que haya un incremento correspondiente en el esfuerzo. Tal punto recibe el nombre de punto de cedencia o punto de fluencia.

Se define la resistencia de cedencia o fluencia Sy mediante el método de corrimiento paralelo.

Diagrama esfuerzo-deformación obtenido a partir del ensayo normal a la tensión de una manera dúctil. El punto P indica el límite de proporcionalidad; E, el límite elástico Y, la resistencia de fluencia convencional determinada por corrimiento paralelo (offset) según la deformación seleccionada OA; U; la resistencia última o máxima, y F, el esfuerzo de fractura o ruptura.

La llamada resistencia última (a la tensión) Su (o bien Sut) corresponde al punto U.

 

Para determinar las relaciones de deformación en un ensayo a tensión, sean:

Lo= longitud calibrada original

Li= longitud calibrada correspondiente a una carga Pi cualquiera

Ao= área transversal original

Ai= área transversal mínima bajo la carga Pi

La deformación (relativa o unitaria) es, Є= (li –lo)/lo

La característica más importante de un diagrama esfuerzo-deformación es que el esfuerzo verdadero aumenta hasta llegar a la fractura.

Є= (Ao – Ai)/ Ai

 

El punto máximo corresponde al punto U. La ecuación:

Ssu= Tur/J

Donde r= radio de la barra, J= el momento polar de inercia, define el módulo de ruptura para el ensayo a torsión.

Éstos son los valores normalmente utilizados en todo diseño técnico o de ingeniería.

 

DEFORMACIÓN PLÁSTICA

La mejor explicación de las relaciones entre esfuerzo y deformación la formuló Datsko. Este investigador describe la región plástica del diagrama esfuerzo-deformación con valores reales mediante la ecuación:

σ = σoЄm

donde σ = esfuerzo real, σo =coeficiente de resistencia o coeficiente de endurecimiento por deformaciσn, Є = deformaciуn plástica real, m= exponente para el endurecimiento por deformación.

 

El esfuerzo de ingeniería es S= σ e-Є

O bien, S= σo Єm e-Є

El punto máximo en el diagrama carga-deformación, o en el diagrama esfuerzo deformación con valores nominales, al menos para algunos materiales, coincide con una pendiente igual a cero. De manera que: σo Ao(mЄm-1 e-Є – Єm e-e)=0, m=Єu

Esta relación sólo es válida si el diagrama carga-deformación tiene un punto de pendiente nula.

 

RESISTENCIA Y TRABAJO EN FRÍO

El trabajo en frío o labrado en frío es el proceso de esforzamiento o deformación de un material en la región plástica del diagrama esfuerzo – deformación, sin la aplicación deliberada de calor.

Las propiedades mecánicas resultantes son completamente diferentes de las obtenidas por el labrado en frío.

a. Diagrama esfuerzo-deformación que muestra los efectos de descarga y recarga en el punto l en la región plástica; b) Diagrama carga-deformación análogo.

Si la carga correspondiente al punto I se aplica de nuevo, el material se deformará elásticamente en valor Єe. Por tanto, en el punto I la deformación unitaria total consiste en las dos componentes Єp y Єe y estб dada por la ecuación

Є= Єp + Єe

Este material puede ser descargado y recargado cualquier número de veces desde el punto I y hasta éste. Por lo tanto,

Єe= σi/E

El labrado en frío de un material produce un nuevo conjunto de valores para las resistencias, como puede verse en los diagramas esfuerzo – deformación. Si el punto I está a la izquierda del punto U, es decir; si Pi<Pu, entonces la nueva resistencia cedente o de fluencia es:

S´y = Pi/A´i = σoЄmi Pi<=Pu

Debido al área reducida, es decir, debido a A´i<Ao, la resistencia última también cambia y es:

S´u= Pu/A´i

Puesto que Pu= Su Ao, se halla, con la ecuación :

S´u = SuAo/Ao(1-w) = Su/(1-W) Єi<=Єu

Lo cual es válido cuando el punto I está a la izquierda del punto U.

 

EFECTOS DE LA TEMPERATURA

La resistencia y la ductilidad, o la fragilidad, son propiedades afectadas por la temperatura del entorno de la operación.

Se ha realizado numerosos ensayos de metales férreos sometidos a cargas constantes con temperaturas elevadas durante lapsos prolongados. Se encontró que las probetas se deformaban permanentemente durante los ensayos, aún cuando en ocasiones los esfuerzos reales eran menores que la resistencia cedente del material evaluada en pruebas de corto tiempo realizadas a la misma temperatura. Esta deformación continua bajo la carga se llama flujo plástico( en inglés creep).

El diagrama se obtiene a una temperatura constante especificada. Un cierto número de ensayos suele efectuarse simultáneamente con distintas intensidades de esfuerzo. La curva presenta tres regiones o etapas. En la primera están incluidas la deformación elástica y plástica. En esta etapa ocurre un flujo decreciente que se debe al endurecimiento por deformación. En la segunda etapa se tiene una variación mínima constante del escurrimiento que proviene del efecto de recocido. En la tercera, la probeta experimenta una considerable reducción de área transversal, se intensifica el esfuerzo y el escurrimiento plástico acentuado conduce finalmente a la ruptura.

 

SISTEMAS DE DESIGNACIÓN NUMÉRICA

En 1975 la SAE publicó el Unified Numbering System for Metals and Alloys (UNS); este sistema también contiene referencias interrelacionadas para otras especificaciones de materiales. El UNS emplea un prefijo literal para designar el material.

En el caso de los aceros, los dos números que siguen al prefijo literal indican la composición, excluyendo el contenido de carbono. Las diversas composiciones utilizadas en los aceros son las siguientes:

G10 acero al carbono simple G46 acero al níquel-molibdeno

G11 acero al carbono de corte libre con mayor cantidad de azufre o fósforo

G48 acero al níquel-molibdeno

G13 acero al manganeso G50 acero al cromo

G23 acero al níquel G51 acero al cromo

G25 acero al níquel G52 acero al cromo

G31 acero al níquel-cromo G61 acero al cromo-vanadio

G33 acero al níquel-cromo G86 acero al cromo-níquel-molibdeno

G40acero al molibdeno G87 acero al níquel-molibdeno

G41acero al cromo-molibdeno G92 acero al manganeso-silicio

G43 acero al níquel-cromo-molibdeno G94 acero al níquel-cromo-molibdeno

El segundo número indica el contenido aproximado de carbono (en centésimas de 1%).

 

PROCESO DE TRABAJO EN CALIENTE

Por trabajo ( o labrado) en caliente se entienden aquellos procesos como laminado o rolado en caliente, forja, extrusión en caliente y prensado en caliente, en los cuales el metal se caldea en el grado suficiente para que alcance una condición plástica y fácil de trabajar.

El laminado en caliente se usa por lo general para obtener una barra de material con forma y dimensiones particulares.

El extrusionado es el proceso por el cual se aplica una gran presión a un lingote metálico caliente, haciendo que fluya en estado plástico a través de un orificio restringido.

El forjado o forja es el trabajo en caliente de metales mediante martinetes, prensas o máquinas de forja. En común con otros procesos de labrado en caliente, la forja produce una estructura de grano refinado que da por resultado una mayo resistencia y ductilidad. Las piezas forjadas tienen mayor resistencia por el mismo peso.

 

PROCESO DE TRABAJO EN FRÍO

El trabajo (o labrado) en frío significa la conformación de un metal a baja temperatura (por lo general, la temperatura del ambiente). En contraste con las piezas producidas por el trabajo en caliente, las que se labran en frío tienen un acabado nuevo brillante, son más exactas y requieren menos maquinado.

Las barras terminadas en frío se producen por rolado, estirado, torneado, esmerilado y pulimentado. Con mucho el mayor porcentaje de productos se elaboran por procesos de laminado y estirado en frío.

Muchas formas diferentes de barras laminadas o roladas en caliente pueden ser empleadas para el estirado en frío.

El rolado y el estirado en frío tienen el mismo efecto sobre las propiedades mecánicas. El labrado en frío da por resultado un gran incremento en la resistencia de fluencia, acrecienta la resistencia última y la dureza, y disminuya la ductilidad.

El recalcado es un proceso de trabajo en frío en el cual el metal se acumula por impactos. Por lo general, esta operación se usa para formar las cabezas de tornillos y remaches. El roscado por laminación es un proceso para obtener una rosca o filete por compresión y rolado de una pieza base. El rechazado es la operación para conformar material laminar de forma circular, alrededor de una forma rotatoria. Estampado es el término que se emplea para describir operaciones de troquelado como silueteado, acuñado, conformado y estirado poco profundo.

 

TRATAMIENTO TÉRMICO DEL ACERO

El tratamiento térmico se refiere a acciones con las que interrumpe a varía el proceso de transformación descrito por el diagrama de equilibrio.

Las operaciones comunes de tratamiento son recocido, templado, revenido y templado superficial.

Recocido Cuando un material se somete a trabajo en frío o en caliente, se inducen esfuerzos remanentes o residuales y, además, el material generalmente adquiere una gran dureza debida a estas operaciones de labrado.

Se mantiene a esta temperatura por un tiempo suficiente para que el carbono quede disuelto y difundido a través del material. El objeto tratado se deja enfriar luego lentamente, por lo general en el mismo horno en el que fue tratado. Si la transformación es completa, se dice entonces que se tiene un recocido total. El recocido se emplea para suavizar un material y hacerlo más dúctil, para eliminar esfuerzos remanentes y para refinar la estructura del grano.

Templado la rapidez de enfriamiento es el factor que determina la dureza. Una rapidez de enfriamiento controlada en un material caldeado constituye el proceso que recibe el nombre de templado. Las dos sustancias más utilizadas para templar son el agua y el aceite.

La eficacia del endurecimiento depende del hecho de que cuando la austenita se enfría no se transforma instantáneamente en perlita, sino que se requiere tiempo para iniciar y completar el proceso. Cuando el material es enfriado rápidamente hasta 200 C° o menos, la austenita se transforma en una estructura llamada martensita. Ésta es una solución sólida sobresaturada de carbono en ferrita, y es la clase de acero más dura y resistente.

Revenido cuando una probeta de acero ha sido endurecida totalmente resulta ser dura y frágil en extremo y con esfuerzos resultantes altos. El acero queda inestable y tiende a contraerse al envejecer. Esta tendencia aumenta cuando la probeta se somete a cargas aplicadas exteriormente debido a que los esfuerzos resultantes contribuyen aún más a la

inestabilidad. Dichos esfuerzos internos pueden ser eliminados por un proceso de calentamiento ligero llamado de alivio de esfuerzos.

Después de que la probeta ha sido endurecida totalmente por el templado desde arriba de la temperatura crítica, se recalienta a una temperatura inferior a la crítica durante cierto tiempo y luego se deja enfriar al aire tranquilo.

Templado superficial el objeto de esta acción de endurecimiento es producir una corteza dura en una probeta o una pieza de acero de bajo carbono, retenido al mismo tiempo la ductilidad y la tenacidad en el núcleo. Esto se logra aumentando el contenido de carbono en la superficie, es decir, carburizándola. El proceso consiste en introducir la pieza por caburizar en el seno de un material carburizante durante un tiempo y a una temperatura establecidos, dependiendo de espesor de la corteza que se desee y de la composición de la pieza.

 

ACEROS ALEADOS Y ELEMENTADOS DE ALEACIÓN

Los aceros aleados no sólo poseen propiedades físicas más convenientes, sino que también permiten una mayor amplitud en el proceso de tratamiento térmico.

Cromo la adición del elemento cromo origina la formación de diversos carburos de cromo que son muy duros; sin embargo, el acero resultante es más dúctil que un acero de la misma dureza producido simplemente al incrementar su contenido de carbono. La adición de cromo amplía el intervalo crítico de temperatura.

Níquel la adición de níquel al acero amplía el nivel crítico de temperatura, no forma carburos u óxidos. Esto aumenta la resistencia sin disminuir la ductilidad. El cromo se utiliza con frecuencia junto con el níquel para obtener la tenacidad y ductilidad proporcionadas por el níquel, y la resistencia al desgaste y la dureza que aporta el cromo.

Manganeso el manganeso se agrega a todos los aceros como agente de desoxidación y desulfuración, pero si el contenido de manganeso es superior a 1%, el acero se clasifica como un acero aleado al manganeso. Reduce el intervalo crítico de temperaturas.

Silicio este elemento se agrega como desoxidante a todos los aceros. Cuando se adiciona a aceros de muy baja cantidad de carbono, produce un material frágil con baja pérdida por histéresis y alta permeabilidad magnética. El uso principal del silicio es, junto con otros elementos de aleación, como manganeso, el cromo y el vanadio, para estabilizar los carburos.

Molibdeno el molibdeno forma carburos y también se disuelve en ferrita hasta cierto punto, de modo que intensifica su dureza y la tenacidad. El molibdeno abate sustancialmente el punto de transformación. Debido a esta abatimiento, el molibdeno es de lo más eficaz para impartir propiedades deseables de templabilidad en aceite o en aire. Exceptuando al carbono, es el que tiene el mayor efecto endurecedor y un alto grado de tenacidad.

Vanadio es un fuerte desoxidante y promueve un tamaño fino de grano, también acrecienta la tenacidad del acero. El acero al vanadio es muy difícil de suavizar por revenido, por lo que se utiliza ampliamente en aceros para herramientas.

Tungsteno (wolframio) este elemento se emplea mucho en aceros para herramientas, por que la herramienta mantendrá su dureza aún cuando estuviera candente o al rojo. Produce una estructura densa y fina, impartiendo tenacidad y dureza.

 

ACEROS INOXIDABLES RESISTENTES A LA CORROSIÓN

Aleaciones a base de hierro y que contienen por lo menos 12% de cromo se denominan aceros inoxidables. Las características más importantes de estos metales es su resistencia a muchas condiciones corrosivas. Los cuatro tipos disponibles son los aceros al cromo ferríticos, los aceros al cromo-níquel austeníticos y los aceros inoxidables martensíticos y templables por precipitación.

Los aceros al cromo ferríticos tienen su resistencia a la corrosión depende del contenido de dicho elemento. Los aceros de muy alto carbono presentan buena templabilidad, tanto que en los de bajo carbono desaparece.

Con muy altos contenidos de cromo la dureza se hace tan intensa que debe prestarse cuidadosa atención a las condiciones de servicio. Puesto que el cromo es costoso, el diseñador deberá de elegir el contenido de cromo mínimo compatible con las condiciones corrosivas.

Los aceros inoxidables al cromo-níquel retienen la estructura austenítica, por lo que son susceptibles de tratamiento térmico. Su resistencia mecánica puede mejorar notablemente por el trabajo en frío, sólo así serán magnéticos. Todos los aceros al cromo-níquel retienen la estructura austenítica, por lo que no son susceptibles de tratamiento térmico. Su resistencia mecánica puede mejorar notablemente por el trabajo en frío.

 

MATERIALES PARA FUNDICIÓN

Hierro colado gris de todos los matrices para fundición, el hierro gris es el que más comúnmente se usa debido a su costo relativamente bajo, la facilidad de ser fundido o colación en grandes cantidades y a su fácil maquinado. Las principales objeciones son: su fragilidad y su baja resistencia a la tensión. Este material so se suelda con facilidad debido a que puede agrietarse.

Hierro colado blanco si todo el carbono en un hierro de fundición está en forma de cementita y perlita sin que haya grafito, la estructura resultante se conoce como hierro colado blanco. Se puede producir en dos variedades y uno u otro método dan por resultado un metal con grandes cantidades de cementita, y así el producto será muy frágil y duro para el maquinado, pero también muy resistente al desgaste.

Hierro colado maleable si el hierro fundido blanco se somete a un proceso de recocido, el producto se le llama hierro colado maleable. Un hierro maleable de buena clase puede tener una resistencia a la tensión mayor que 350 Mpa., con una elongación de hasta el 18%. Debido al tiempo que se requiere para el recocido, el hierro maleable necesariamente es más costoso que el gris.

Hierro colado dúctil o nodular se combinan las propiedades dúctiles del hierro maleable y la facilidad de fundición y maquinado del gris, y que al mismo tiempo poseyera estas propiedades después del colado.

El hierro colado dúctil es esencialmente el mismo hierro maleable, sin embargo, el hierro dúctil se obtiene agregando magnesio al metal fundido.

El hierro dúctil tiene un alto módulo de elasticidad( de 172 Gpa). El hierro nodular posee una resistencia a la compresión que es mayor que la resistencia a la tensión, aunque la diferencia no es tan grande. Su intervalo de aplicaciones resulta utilizable en piezas de fundición que requieran resistencia a cargas de choque o impacto.

Hierros colados de aleación el níquel, el cromo y el molibdeno son los elementos de aleación más utilizados con el hierro fundido. El níquel aumenta la resistencia y la densidad, mejora la resistencia al desgaste. Cuando se agrega cromo y níquel, la dureza y la resistencia mejoran sin que haya reducción en la maquinabilidad. El molibdeno aumenta la rigidez, la dureza y la resistencia a la tensión y al impacto.

Aceros para fundición la ventaja del proceso de colado es que piezas con formas complejas se pueden fabricar a un costo menor que por otros medios. Los mismos elementos de aleación que se utilizan en aceros para forja se emplean con los aceros para fundición, a fin de mejorar la resistencia y otras propiedades mecánicas. Las piezas de acero fundido también pueden ser tratadas térmicamente a fin de modificar las propiedades mecánicas y, a diferencia de los hierros fundidos, pueden ser soldadas.

 

METALES NO FÉRREOS

Aluminio las características sobresalientes del aluminio y su aleaciones son su ventajosa relación de resistencia peso, su resistencia a la corrosión y su alta conductividad eléctrica y térmica.

El aluminio puro tiene una resistencia a la tensión de aproximadamente 90Mpa, pero este valor puede mejorarse en forma considerable por el trabajo en frío y por aleación con

otros materiales. El módulo de elasticidad es 71 Gpa, lo que significa que tiene más o menos un terco de la rigidez del acero.

El aluminio se funde a los 660 °C, lo que lo hace muy conveniente para la reducción de piezas fundidas en molde permanente o de arena.

La resistencia a la corrosión de las aleaciones de aluminio depende d la formación de una delgada capa de óxido. Esta película se forma espontáneamente por que el aluminio es muy reactivo.

Los elementos de aleación más útiles para el aluminio son cobre, silicio, magnesio, manganeso y hierro. Las aleaciones del aluminio se clasifican como aleaciones para fundición o aleaciones de forja. Las primeras tienen mayores porcentajes de elementos de aleación, con el fin de facilitar el moldeo, pero esto dificulta el trabajo en frío.

Magnesio la densidad del magnesio es igual a 2/3 de la del aluminio y a ¼ de la del acero. Es el más ligero de todos los metales de uso comercial, su mayor empleo está en la industria aeronáutica. Aunque no tiene gran resistencia a peso es comparable con las más resistentes aleaciones de aluminio o de acero. El magnesio no resiste temperaturas elevadas y su punto de cedencia se reduce en forma notable cuando la temperatura se lleva hasta un valor igual al punto de ebullición del agua. Tiene un módulo de elasticidad de 45Gpa a tensión y compresión. Extrañamente ocurre que el trabajo en frío reduce su módulo de elasticidad.

Aleaciones a base de cobre cuando el cobre es aleado con zinc recibe el nombre de latón. Si se liga con otro elemento, a menudo se denomina bronce. Existen cientos de variedades en cada categoría.

Latones con 5 a 15% de zinc son fáciles de trabajar en frío, en especial los que tienen alto contenido de zinc. Son dúctiles, pero a menudo resultan ser duros para el maquinado. La resistencia a la corrosión es adecuada. Las aleaciones llamados latón de dorar(5% Zn), bronce comercial(10% Zn), y latón rojo(15% Zn). El primero se utiliza, principalmente, en joyería, tiene las misma ductilidad que el cobre pero mayor resistencia. El bronce comercial, se emplea también en joyería y en la fabricación de piezas forjadas y estampadas. Sus propiedades de maquinado son deficientes, pero tiene excelentes propiedades para el labrado en frío. El latón rojo posee buena resistencia a la corrosión, así como resistencia a las altas temperaturas.

Latones con 20% a 36% de zinc en este grupo figuran el latón de bajo zinc(20%), el latón para cartuchos(30%) y el latón amarillo(33%). El latón pobre en zinc es muy semejante al latón rojo, y se utiliza en artículos que requieren operaciones de estirado profundo. El latón para cartuchos es el que tiene la mejor combinación de ductibilidad y resistencia. Aunque la maleabilidad en caliente del latón amarillo resulta deficiente, se puede usar prácticamente en cualquier otro proceso de fabricación y, por tanto, en una gran variedad de productos.

La adición de plomo afecta las propiedades de trabajo en frío y la unión por soldadura. En este grupo se tienen el latón de bajo plomo(32.5%Zn, .5%Pb), el latón de alto plomo (34% Zn, 2%Pb) y el latón de corte libre(35.5%Zn, 3%Pb). El latón de bajo plomo no sólo es fácil de maquinar, sino que tiene además excelentes propiedades para el trabajo en frío. El latón de alto plomo se emplea en la manufactura de piezas de instrumentos diversos, cerraduras y relojes. El latón de corte libre también se utiliza en piezas para tornos

automáticos y tiene buena resistencia a la corrosión con excelentes propiedades mecánicas.

Latón con 36 a 40% de zinc los latones con más de zinc son menos dúctiles que el latón para cartuchos y no pueden ser trabajados en frío en forma severa. El metal Muntz es de bajo costo y moderadamente resistente a la corrosión. El metal naval tiene una adición de estaño que contribuye a la resistencia a la corrosión.

Bronces el bronce al silicio tiene propiedades mecánicas iguales a las del acero dulce, sí como buena resistencia a la corrosión. Puede ser trabajado en frío o en caliente, maquinado o soldado. Es útil donde quiera que se necesite resistencia a la corrosión combinada con resistencia mecánica.

El bronce al fósforo, que contiene 11% de estaño y fósforo en pequeñas cantidades, es especialmente resistente a la fatiga y a al corrosión. Tiene alta resistencia a la tensión y también al desgaste.

El bronce al aluminio es una aleación termotratable que contiene hasta 12% de aluminio. Este metal tiene mejores propiedades de resistencia mecánica y a la corrosión que las del latón, y además sus propiedades pueden ser variadas en una amplia gama por trabajo en frío, tratamiento térmico o cambio de composición.

El bronce al berilio es otra aleación termotratable que contiene aproximadamente 2% de berilio. Esta aleación es muy resistente a la corrosión y posee alta resistencia, gran dureza y elevada resistencia al desgaste. Se utiliza en resortes y otras piezas sujetas a cargas por fatiga.

 

SENSIBILIDAD A LA MUESCA (O ENTALLADURA)

Algunos materiales no son completamente sensible a la presencia de muescas o entalladuras y, por lo tanto, en el caso de que existan éstas puede utilizarse un valor reducido de Kt.

σmαx= Kf σo

aí que es conveniente considerar a Kf como un factor de concentración de esfuerzo reducido a partir de Kt debido a la menor estabilidad de la muesca. El factor resultante se define por la ecuación:

Kf= esfuerzo máximo en probeta con musca/esfuerzo en probeta libre de muesca

La sensibilidad de la muesca q se define por la ecuación

q= Kf-1/Kf-1

donde q está por lo general cero y la unidad. La ecuación indica que si q=0, entonces Kf=1, y el material tiene sensibilidad completa a la muesca.

 

Impedancia

De Wikipedia, la enciclopedia libreSaltar a navegación, búsqueda

La impedancia es una magnitud que establece la relación (cociente) entre la tensión y la intensidad de corriente. Tiene especial importancia si la corriente varía en el tiempo, en cuyo caso, ésta, la tensión y la propia impedancia se notan con números complejos o funciones del análisis armónico. Su módulo (a veces impropiamente llamado impedancia) establece la relación entre los valores máximos o los valores eficaces de la tensión y de la corriente. La parte real de la impedancia es la resistencia y su parte imaginaria es la reactancia. El concepto de impedancia generaliza la ley de Ohm en el estudio de circuitos en corriente alterna (AC).El término fue acuñado por Oliver Heaviside en 1886.

En general, la solución para las corrientes y las tensiones de un circuito formado por resistencias, condensadores e inductancias y sin ningún componente de comportamiento no lineal, son soluciones de ecuaciones diferenciales. Pero, cuando todos los generadores de tensión y de corriente tienen la misma frecuencia constante y que sus amplitudes son constantes, las soluciones en estado estacionario (cuando todos fenómenos transitorios han desaparecido) son sinusoidales y todas las tensiones y corrientes tienen la misma frecuencia (la de los generadores) y tienen la amplitud y la fase constante.

El formalismo de las impedancias consiste en unas pocas reglas que permiten calcular circuitos que contienen elementos resistivos, inductivos o capacitivos de manera similar al cálculo de circuitos resistivos en corriente continua. Esas reglas sólo son válidas en los casos siguientes:

Si estamos en régimen permanente con corriente alterna sinusoidal. Es decir, que todos los generadores de tensión y de corriente son sinusoidales y de misma frecuencia, y que todos los fenómenos transitorios que pueden ocurrir al comienzo de la conexión se han atenuado y desaparecido completamente.

Si todos los componentes son lineales. Es decir, componentes o circuitos en los cuales la amplitud (o el valor eficaz) de la corriente es estrictamente proporcional a la tensión aplicada. Se excluyen los componentes no lineales como los diodos. Si el circuito contiene inductancias con núcleo ferromagnético (que no son lineales), los resultados de los cálculos sólo podrán ser aproximados y eso, a condición de respetar la zona de trabajo de las inductancias.

Cuando todos los generadores no tienen la misma frecuencia o si las señales no son sinusoidales, se puede descomponer el cálculo en varias etapas en cada una de las cuales se puede utilizar el formalismo de impedancias (ver más abajo).

Contenido[ocultar]

1 Definición 2 Reactancia

3 Admitancia

4 Generadores de tensión o de corriente desfasadas

5 Representación gráfica

6 Cálculo de circuitos con las impedancias

o 6.1 Leyes de Kirchhoff

o 6.2 Generalización de la ley de Ohm

o 6.3 Impedancias en serie o en paralelo

o 6.4 Interpretación de los resultados

7 Ejemplos

o 7.1 Un generador único

o 7.2 Dos generadores desfasados

8 Cuando las impedancias no pueden utilizarse directamente

9 Origen de las impedancias

10 Véase también

11 Bibliografía

Definición [editar]

Sea un componente electrónico o eléctrico o un circuito alimentado por una corriente sinusoidal . Si la tensión a sus extremidades es , la impedancia del circuito o del componente se define como un número complejo cuyo módulo es el cociente y cuyo argumento es .

o sea .

Es la oposición total (Resistencia, Reactancia inductiva, Reactancia capacitiva) sobre la corriente

Como las tensiones y las corrientes son sinusoidales, se pueden utilizar los valores pico (amplitudes), los valores eficaces, los valores pico a pico o los valores medios. Pero hay que cuidar de ser uniforme y no mezclar los tipos. El resultado de los cálculos será del mismo tipo que el utilizado para los generadores de tensión o de corriente.

Reactancia [editar]

Véase artículo reactancia. La impedancia puede representarse como la suma de una parte real y una parte imaginaria:

es la parte resistiva o real de la impedancia y es la parte reactiva o reactancia de la impedancia.

Admitancia [editar]

Véase artículo admitancia. La admitancia es el inverso de la impedancia:

La conductancia es la parte real de la admitancia y la susceptancia la parte imaginaria de la admitancia.

Las unidades de la admitancia, la conductancia y la susceptancia son los Siemens. Un Siemen es el inverso de un Ohmio.

Generadores de tensión o de corriente desfasadas [editar]

Si, en un circuito, se encuentran varios generadores de tensión o de corriente, se elige uno de ellos como generador de referencia de fase. Si la verdadera tensión del generador de referencia es , para el cálculo con las impedancias escribiremos su tensión como . Si la tensión de otro generador tiene un avance de fase de con respecto al generador de referencia y su corriente es , para el cálculo con las impedancias escribiremos su corriente como . El argumento de las tensiones y corrientes calculadas será el desfase de esas tensiones o corrientes con respecto al generador tomado como referencia.

Representación gráfica [editar]

Ver artículos corriente alterna y Fasor (electrónica).

Se pueden representar las tensiones de los generadores de tensión y las tensiones entre los extremos de los componentes como vectores en un plano complejo. La magnitud (longitud) de los vectores es el módulo de la tensión y el ángulo que hacen con en eje real

es igual al ángulo de desfase con respecto al generador de referencia. Este tipo de diagrama también se llama diagrama de Fresnel.

Con un poco de costumbre y un mínimo de conocimientos de geometría, esas representaciones son mucho más explicitas que los valores o las fórmulas. Por supuesto, esos dibujos no son, en nuestra época, un método gráfico de cálculo de circuitos. Son una manera de "ver" como las tensiones se suman. Esos dibujos pueden facilitar la escritura de las fórmulas finales, utilizando las propiedades geométricas. Encontrarán ejemplos de la representación gráfica en los ejemplos de abajo.

Cálculo de circuitos con las impedancias [editar]

Con lo que se ha explicado arriba, se pueden calcular circuitos que contienen impedancias de la misma manera que se calculan circuitos con resistencias en corriente continua.

Leyes de Kirchhoff [editar]

Las Leyes de Kirchoff se aplican de la misma manera: "la suma de las corrientes que llegan a un nodo es cero" y "la suma de todas las tensiones alrededor de una malla es cero". Esta vez, tanto las corrientes como las tensiones, son, en general, complejas.

Generalización de la ley de Ohm [editar]

La tensión entre las extremidades de una impedancia es igual al producto de la corriente por la impedancia:

Tanto la impedancia como la corriente y la tensión son, en general, complejas.

Impedancias en serie o en paralelo [editar]

Las impedancias se tratan como las resistencias con la ley de Ohm. La impedancia es igual a su suma:

Serie

La impedancia de varias impedancias en paralelo es igual al inverso de la suma de los inversos:

Paralelo

Interpretación de los resultados [editar]

El resultado de un cálculo de una tensión o de una corriente es, generalmente, un número complejo. Ese número complejo se interpreta de manera siguiente:

El módulo indica el valor de la tensión o de la corriente calculada. Si los valores utilizados para los generadores eran los valores pico, el resultado también será un valor pico. Si los valores eran valores eficaces, el resultado también será un valor eficaz.

El argumento de ese número complejo da el desfase con respecto al generador utilizado como referencia de fase. Si el argumento es positivo la tensión o la corriente calculadas estarán en avance de fase.

Ejemplos [editar]

Un generador único [editar]

Una inductancia y una resistencia en serie alimentadas por un generador sinusoidal.

En el diagrama de la derecha tenemos un generador sinusoidal de 10 volts de amplitud y de una frecuencia de 10 kHz. En serie hay una inductancia de 10 mH y una resistencia de 1,2 k .Calculemos la corriente que circula en el circuito:

Es necesaria la aplicación del cálculo con números complejos si se utiliza esta notación.

El módulo de la corriente es:

Como el valor de la tensión del generador que tomamos fue un valor pico (amplitud), el valor de la corriente obtenido también es un valor pico. La corriente eficaz es:

La fase de la corriente es el argumento del número complejo :

.

La corriente está en retardo de fase con respecto a la fase del generador. Eso es lógico, ya que el circuito es inductivo.

Diagrama de Fresnel (o fasor) de una inductancia y una resistencia en serie. El círculo gris solo sirve de ayuda al dibujo del ángulo recto entre la tensión de la resistencia y la tensión de la inductancia.

Solo la resistencia disipa potencia:

La fracción aparece porque el valor de la corriente es el valor pico.

La tensión entre los extremos de la resistencia es

La tensión eficaz que se leería con un voltímetro sería el módulo de esta tensión divido por :

La tensión entre las extremidades de la inductancia es

La tensión eficaz leída con con voltímetro sería, igualmente:

Constatamos que la suma de las dos tensiones "complejas" da (teniendo en cuenta los redondeos) la tension del generador. En cambio, la suma de las dos tensiones leídas con un voltímetro es más grande que la del generador ( ). Ese resultado es típico de las medidas hechas con un voltímetro en circuitos en los cuales las tensiones no están en fase. Un voltímetro nos mide módulos en valor eficaz, los cuales no podemos sumar directamente ya que estamos tratando con fasores con sus distintas orientaciones.

Dos generadores desfasados [editar]

Condensador y resistencia en serie entre dos generadores sinusoidales desfasados.

En el circuito de la derecha, un condensador de y una resistencia de en serie, están conectados entre dos generadores sinusoidales. Tomamos como generadores dos fases del suministro trifásico. El generador de izquierda será nuestro generador de referencia . El generador de derecha está en avance de fase de . Es decir, . Con el formalismo de impedancias, el generador de izquierda será y el de derecha . Comencemos calculando la diferencia de tensión entre los dos generadores:

El módulo de esta tensión es y está retardada de 0,5236 radianes (30°) con respecto a la tensión de referencia.

Diagrama de Fresnel correspondiente al segundo ejemplo. El primer círculo sirve de guía a las tensiones de los dos generadores. El segundo para el ángulo recto entre la tensión del condensador y la de la resistencia.

La corriente que circula es:

Como los valores de tensión utilizados para los generadores eran valores eficaces, la corriente calculada también viene como valor eficaz: 91 mA en avance de fase 16,71° con respecto a la tensión de referencia.

La tensión entre los extremos de la resistencia es

La tensión entre los extremos del condensador es:.

La tensión entre las extremidades del condensador está en retardo de 73,3° con respecto a la tensión de referencia. Como en el ejemplo precedente, la suma de los módulos de las tensiones (las que se medirían con un voltímetro) de la resistencia y del condensador (563 V) es más grande que la tensión total aplicada (398 V).

La tensión en el punto A del circuito será:

La tensión del punto A es más grande que la de cada generador.

Cuando las impedancias no pueden utilizarse directamente [editar]

Si todos los generadores no tienen la misma frecuencia, el formalismo de las impedancias no puede aplicarse directamente. En ese caso lo que se puede hacer es utilizar el Teorema de superposición: se hace un cálculo separado para cada una de las frecuencias (remplazando en cada uno de los cálculos todos los generadores de tensión de frecuencia diferente por un cortocircuito y todos los generadores de corriente de frecuencia diferente por un circuito abierto). Cada una de las tensiones y corrientes totales del circuito será la suma de cada una de las tensiones o corrientes obtenidas à cada una de las frecuencias. Por supuesto, para hacer estas últimas sumas hay que escribir cada una de las tensiones en la forma real, con la dependencia del tiempo y el desfase: para las tensiones y las fórmulas similares para las corrientes.

Si las señales no son sinusoidales, pero son periódicas y continuas, se pueden descomponer las señales en serie de Fourier y utilizar el Teorema de superposición para separar el cálculo en un cálculo para cada una de las frecuencias. El resultado final será la suma de los resultados para cada una de las frecuencias de la descomposición en serie.

Origen de las impedancias [editar]

Vamos a tratar de ilustrar el sentido físico de la parte imaginaria j (donde se utiliza esta letra en vez de i para evitar confisiones con la intensidad) de las impedancias calculando, sin utilizar estas, la corriente que circula por un circuito formado por una resistencia, una inductancia y un condensador en serie.

El circuito está alimentado con una tensión sinusoidal y hemos esperado suficientemente para que todos los fenómenos transitorios hayan desaparecido. Tenemos un régimen permanente. Como el sistema es lineal, la corriente del régimen permanente será también sinusoidal y tendrá la misma frecuencia que la de la fuente original. Lo único que no sabemos sobre la corriente es su amplitud y el desfase que puede tener con respecto a la tensión de alimentación. Así, si la tensión de alimentación es la corriente será de la forma , donde es el desfase que no conocemos. La ecuación a resolver será:

donde , y son las tensiones entre las extremidades de la resistencia, la inductancia y el condensador.

es igual a

La definición de inductancia nos dice que

.

La definición de condensador nos dice que . Haciendo la derivada, se puede comprobar que:

.

Así, la ecuación que hay que resolver es:

Tenemos que encontrar los valores de y de que hagan que esta ecuación sea satisfecha para todos los valores de .

Para encontrarlos, imaginemos que alimentamos otro circuito idéntico con otra fuente de tensión sinusoidal cuya única diferencia es que comienza con un cuarto de periodo de retraso. Es decir, que la tensión será . De la misma manera, la solución también tendrá el mismo retraso y la corriente será:

. La ecuación de este segundo circuito retardado será:

Hay signos que han cambiado porque el coseno retardado se transforma en seno, pero el seno retardado se transforma en coseno. Ahora vamos a sumar las dos ecuaciones después de haber multiplicado la segunda por j. La idea es de poder transformar las expresiones de la forma en , utilizando las fórmulas de Euler. El resultado es:

Como es diferente de cero, se puede dividir toda la ecuación por ese factor:

se deduce:

A la izquierda tenemos las dos cosas que queríamos calcular: la amplitud de la corriente y su desfase. La amplitud será igual al módulo del número complejo de la derecha y el desfase será igual al argumento del número complejo de la derecha.Y el término de la derecha es el resultado del cálculo habitual utilizando el formalismo de impedancias en el cual de tratan las impedancias de las resistencias, condensadores e inductancias de la misma manera que las resistencias con la ley de Ohm.Vale la pena de repetir que cuando escribimos:

admitimos que la persona que lee esa fórmula sabe interpretarla y no va a creer que la corriente pueda ser compleja o imaginaria. La misma suposición existe cuando encontramos expresiones como "alimentamos con una tensión " o "la corriente es compleja".

Como las señales son sinusoidales, los factores entre los valores eficaces, máximos, pico a pico o medios son fijos. Así que, en el formalismo de impedancias, si los valores de entrada son pico, los resultados también vendrán en pico. Igual para eficaz u otros. Pero no hay que mezclarlos.

Magnetostática

La magnetostática es el estudio de todos los fenómenos físicos en los que intervienen campos magnéticos constantes en el tiempo.

La magnetostática abarca desde la atracción que ejercen los imanes y los electroimanes sobre los metales ferromagnéticos, como el hierro, hasta los campos magnéticos creados por corrientes eléctricas estacionarias. De hecho ambos fenómenos están estrechamente relacionados, ya que las corrientes eléctricas crean un campo magnético proporcional a la intesidad de corriente y que disminuye con la distancia.

Además todo cuerpo que entra en un campo magnético toma una imantación que depende de su naturaleza, y que generalmente pierde al retirarse de ese campo; algunos aceros conservan parte del magnetismo inducido o magnetismo remanente.

Hay cuerpos paramagnéticos que son atraídos por los imanes (hierro, níquel, cobalto, etc.), y cuerpos diamagnéticos, que son repelidos por ellos.

Magnetismo [editar]

El magnetismo es la propiedad que tienen determinadas sustancias de atraer especialmente algunos minerales como el hierro, cobalto y níquel y cadmio

CAMPO MAGNÉTICO. MAGNETOSTÁTICA.1. El campo magnético. -La fuerza que se ejerce sobre una carga eléctrica no depende sólo de su posición en elespacio, sino también de su velocidad. Cuando la carga está en movimiento, aparece unacomponente adicional de la fuerza: la fuerza magnética.FUERZA DE LORENTZ:La fuerza magnética es perpendicular a la velocidad y proporcional a ésta.[B] N·s/C ·m = V·s/m 2 = Weber /m 22. Corriente eléctrica.-Definimos la densidad de corriente j como la cantidad de carga que atraviesa, porunidad de tiempo y de superficie, un elemento de área perpendicular a la dirección deavance:Si tenemos una distribución de cargas con densidad y moviéndose con una velocidad dearrastre v promedio:Corriente eléctrica: cantidad total de carga que atraviesa una superficie S por unidad detiempo:CONSERVACIÓN DE LA CARGA:: la cantidad total de carga se conservay según el teorema de Gauss:3. Fuerza magnética sobre una corriente. -Por simplicidad, supongamos que no existe campo eléctrico: E=0:4. Movimiento de una carga puntual en el interior de un campo magnético. -La fuerza que un campo magnético produce sobre una carga en movimiento esperpendicular a la velocidad no se realiza trabajo, y sólo se modifica la dirección delvector velocidad, pero no su módulo.Si , la trayectoria es un círculo.; periodoFrecuencia: "frecuencia de ciclotrón"Aplicaciones:• selector de velocidades;• espectrómetro de masas;

• aceleradores de partículas y anillos de almacenamiento;• etc.5. Par de fuerzas sobre espiras de corriente e imanes. -: las dos fuerzas son iguales yopuestas, por lo que forman un par.Cuando el campo magnético forma un ángulo con lanormal a la superficie n:Si hay varias vueltas de cable:: momento magnético de la espira.Por tanto, una espira de corriente en el interior de un campo magnético se comporta comoun dipolo en el seno de un campo eléctrico, e intenta alinearse paralelamente a ladirección de B:(N + , S - )El momento magnético del imán vale:donde qm es la intensidad polar de un imánpermanente (equivalente a la carga eléctrica).La intensidad polar magnética se define de un modo análogo al de la carga eléctrica, auncuando no existen cargas magnéticas aisladas.6. Campo magnético creado por cargas en movimiento. -Hemos visto que existe una relación entre campos magnéticos y cargas eléctricas enmovimiento; se comprueba experimentalmente que una carga en movimiento crea uncampo magnético en la región adyacente del espacio:0: permeabilidad del vacío = (0c2)- 1= 410- 7Tm/AEsta ecuación es el equivalente de la ley de Coulomb de la electrostática. El factor c2,además de determinar la intensidad de los efectos magnéticos, indica que el magnetismoes un fenómeno relativista asociado al movimiento de las cargas eléctricas.Podemos generalizar la expresión anterior para corrientes eléctricas:: ley de Biot - Savart7. Ley de Ampère. -El campo eléctrico es producido por cargas eléctricas aisladas, y las líneas de camposurgen o terminan en éstas. En cambio, el campo magnético es creado por corrienteseléctricas, y las líneas de campo crean bucles cerrados alrededor de dichas corrientes.Para el campo magnético existe una ley análoga a la ley de Gauss de la electrostática:: ley de Ampère

C = curva cerrada

Sistemas Numéricos

Los sistemas de numeración son conjuntos de dígitos usados para representar cantidades, así se tienen los sistemas de numeración decimal, binario, octal, hexadecimal, romano, etc. Los cuatro primeros se caracterizan por tener una base (número de dígitos diferentes: diez, dos, ocho, dieciseis respectivamente) mientras que el sistema romano no posee base y resulta más complicado su manejo tanto con números, así como en las operaciones básicas.

Los sistemas de numeración que poseen una base tienen la característica de cumplir con la notación posicional, es decir, la posición de cada número le da un valor o peso, así el primer dígito de derecha a izquierda después del punto decimal, tiene un valor igual a b veces el valor del dígito, y así el dígito tiene en la posición n un valor igual a: (bn) * A

donde: b = valor de la base del sistema n = número del dígito o posición del mismo A = dígito.

Por ejemplo:

digitos: 1 2 4 9 5 3 . 3 2 4 posicion 5 4 3 2 1 0 . -1 -2 -3

COMPUERTAS LÓGICAS

Un computador digital, como su nombre lo indica, es un sistema digital que realiza diversas operaciones de cómputo. La palabra Digital implica que la información que se representa en el computador por medio de variables que toman un número limitado de valores discretos o cuantizados. Estos valores son procesados internamente por componentes que pueden mantener un número limitado de estados discretos. Los dígitos decimales por ejemplo, proporcionan 10 valores discretos ( 0 .. 9 ). Como sabemos en la práctica, los computadores funcionan más confiablemente si sólo utilizan dos estados equiprobables. Debido al hecho que los componentes electrónicos atienden a dos estados (encendido / apagado) y que la lógica humana tiende a ser binaria (esto es, cierto o falsa, si o no) se utiliza el sistema binario y se dice que son binarias.

Los computadores digitales utilizan el sistema de números binarios, que tiene dos dígitos 0 y 1. Un dígito binario se denomina un bit. La información está representada en los computadores digitales en grupos de bits. Utilizando diversas técnicas de codificación los grupos de bits pueden hacerse que representen no solamente números binarios sino también otros símbolos discretos cualesquiera, tales como dígitos decimales o letras de alfabeto. Utilizando arreglos binarios y diversas técnicas de codificación, los dígitos binarios o grupos de bits pueden utilizarse para desarrollar conjuntos completos de instrucciones para realizar diversos tipos de cálculos.

La información binaria se representa en un sistema digital por cantidades físicas denominadas señales, Las señales eléctricas tales como voltajes existen a través del sistema digital en cualquiera de dos valores reconocibles y representan una variable binaria igual a 1 o 0. Por ejemplo, un sistema digital particular puede emplear una señal

de 3 volts  para representar el binario "1" y 0.5 volts  para el binario "0". La siguiente ilustración muestra un ejemplo de una señal binaria.

Como se muestra en la figura, cada valor binario tiene una desviación aceptable del valor nominal. La región intermedia entre las dos regiones permitidas se cruza solamente durante la transición de estado.  Los terminales de entrada de un circuito digital aceptan señales binarias dentro de las tolerancias permitidas y los circuitos responden en los terminales de salida con señales binarias que caen dentro de las tolerancias permitidas.

La lógica binaria tiene que ver con variables binarias y con operaciones que toman un sentido lógico. Es utilizada para escribir, en forma algebraica o tabular. La manipulación y. procesamiento de información binaria. La manipulación de información binaria se hace por circuitos lógico que se denominan Compuertas.

Las compuertas son bloques del hardware que producen señales del binario 1 ó 0 cuando se satisfacen los requisitos de entrada lógica. Las diversas compuertas lógicas se encuentran comúnmente en sistemas de computadores digitales. Cada compuerta tiene un símbolo gráfico diferente y su operación puede describirse por medio de una función algebraica. Las relaciones entrada - salida de las variables binarias para cada compuerta pueden representarse en forma tabular en una tabla de verdad.

A continuación se detallan los nombres, símbolos, gráficos, funciones algebraicas, y tablas de verdad de ocho compuertas.

Compuerta AND: 

Cada compuerta tiene una o dos variables de entrada designadas por A y B y una salida binaria designada por x. La compuerta AND produce la unión lógica AND: esto es: la salida es 1 si la entrada A y la entrada B están ambas en el binario 1: de otra manera, la salida es 0. Estas condiciones también son especificadas en la tabla de verdad para la compuerta AND. La tabla muestra que la salida x es 1 solamente cuando ambas entradas A y B están en 1. El símbolo de operación algebraico de la función AND es el mismo que el símbolo de la multiplicación de la aritmética ordinaria (*). Podemos utilizar o un punto entre las variables o concatenar las variables sin ningún símbolo de operación entre ellas. Las compuertas AND pueden tener más de dos entradas y por definición, la salida es 1 si cualquier entrada es 1.

Compuerta OR: 

La compuerta OR produce la función OR inclusiva, esto es, la salida es 1 si la entrada A o la entrada B o ambas entradas son 1; de otra manera, la salida es 0. El símbolo algebraico de la función OR (+), similar a la operación de aritmética de suma. Las compuertas OR pueden tener más de dos entradas y por definición la salida es 1 si cualquier entrada es 1.

Compuerta NOT (Inversor):

El circuito inversor invierte el sentido lógico de una señal binaria. Produce el NOT, o función complemento. El símbolo algebraico utilizado para el complemento es una barra sobra el símbolo de la variable binaria. Si la variable binaria posee un valor 0, la compuerta NOT cambia su estado al valor 1 y viceversa. El círculo pequeño en la salida de un símbolo gráfico de un inversor designa un complemento lógico. Es decir cambia los valores binarios 1 a 0 y viceversa.

Compuerta Separador (yes):

Un símbolo triángulo por sí mismo designa un circuito separador no produce ninguna función lógica particular puesto que el valor binario de la salida es el mismo de la entrada. Este circuito se utiliza simplemente para amplificación de la señal. Por ejemplo, un separador que utiliza i volt para el binario 1 producirá una salida de 3 volt cuando la entrada es 3 volt. Sin embargo, la corriente suministrada en la entrada es mucho más pequeña que la corriente producida en la salida. De ésta manera, un separador puede excitar muchas otras compuertas que requieren una cantidad mayor de corriente que de otra manera no se encontraría en la pequeña cantidad de corriente aplicada a la entrada del separador.

Compuerta NAND:

Es el complemento de la función AND, como se indica por el símbolo gráfico que consiste en un símbolo gráfico AND seguido por un pequeño círculo. La designación NAND se deriva de la abreviación NOT - AND. Una designación más adecuada habría sido AND invertido puesto que Es la función AND la que se ha invertido.

Compuerta NOR:  

La compuerta NOR es el complemento de la compuerta OR y utiliza un símbolo gráfico OR seguido de un círculo pequeño. Tanto las compuertas NAND como la NOR pueden tener más de dos entradas, y la salida es siempre el complemento de las funciones AND u OR, respectivamente.

Compuerta OR exclusivo (XOR):

La compuerta OR exclusiva tiene un símbolo gráfico similar a la compuerta OR excepto por una línea adicional curva en el lado de la entrada. La salida de esta compuerta es 1 si cada entrada es 1 pero excluye la combinación cuando las dos entradas son 1. La función OR exclusivo tiene su propio símbolo gráfico o puede expresarse en términos de operaciones complementarias AND, OR .

Compuerta NOR exclusivo (XOR):

El NOR exclusivo como se indica por el círculo pequeño en el símbolo gráfico. La salida de ésta compuerta es 1 solamente si ambas entradas son tienen el mismo valor binario. Nosotros nos referiremos a la función NOR exclusivo como la función de equivalencia. Puesto que las funciones OR exclusivo y funciones de equivalencia no son siempre el complemento la una de la otra. Un nombre más adecuado para la operación OR exclusivo sería la de una función impar; esto es, la salida es 1 si un número impar de entrada es 1. Así en una función OR (impar) exclusiva de tres entradas, la salida es 1 si solamente la entrada es 1 o si todas las entradas son 1. La función de equivalencia es una función par; esto es, su salida es 1 si un número par de entradas es 0. Para un función de equivalencia de tres entradas, la salida es 1 si ninguna de las entradas son 0 (todas las entradas son 1 ) o si dos de las entradas son 0 ( una entrada es 1 Una investigación cuidadosa revelará que el OR exclusivo y las funciones de equivalencia son el complemento la una de la otra cuando las compuertas tienen un número par de entradas, pero las dos funciones son iguales cuando el número de entradas es impar. Estas dos compuertas están comúnmente disponibles con dos entradas y solamente en forma rara se encuentran con tres o más entradas. 

 

Movimiento ondulatorio, proceso por el que se propaga energía de un lugar a otro sin transferencia de materia, mediante ondas mecánicas o electromagnéticas. En cualquier

punto de la trayectoria de propagación se produce un desplazamiento periódico, u oscilación, alrededor de una posición de equilibrio. Puede ser una oscilación de moléculas

de aire, como en el caso del sonido que viaja por la atmósfera, de moléculas de agua (como en las olas que se forman en la superficie del mar) o de porciones de una cuerda o un resorte. En todos estos casos, las partículas oscilan en torno a su posición de equilibrio

y sólo la energía avanza de forma continua. Estas ondas se denominan mecánicas porque la energía se transmite a través de un medio material, sin ningún movimiento

global del propio medio. Las únicas ondas que no requieren un medio material para su propagación son las ondas electromagnéticas; en ese caso las oscilaciones corresponden

a variaciones en la intensidad de campos magnéticos y eléctricos (véase Electrónica).

2TIPOS DE ONDAS

Versión para imprimir la sección

Las ondas se clasifican según la dirección de los desplazamientos de las partículas en relación a la dirección del movimiento de la propia onda. Si la vibración es paralela a la

dirección de propagación de la onda, la onda se denomina longitudinal (ver figura 1). Una onda longitudinal siempre es mecánica y se debe a las sucesivas compresiones (estados

de máxima densidad y presión) y enrarecimientos (estados de mínima densidad y presión) del medio. Las ondas sonoras son un ejemplo típico de esta forma de movimiento ondulatorio. Otro tipo de onda es la onda transversal, en la que las vibraciones son

perpendiculares a la dirección de propagación de la onda. Las ondas transversales pueden ser mecánicas, como las ondas que se propagan a lo largo de una cuerda tensa

cuando se produce una perturbación en uno de sus extremos (ver figura 2), o electromagnéticas, como la luz, los rayos X o las ondas de radio. En esos casos, las

direcciones de los campos eléctrico y magnético son perpendiculares a la dirección de propagación. Algunos movimientos ondulatorios mecánicos, como las olas superficiales de los líquidos, son combinaciones de movimientos longitudinales y transversales, con lo

que las partículas de líquido se mueven de forma circular.

En una onda transversal, la longitud de onda es la distancia entre dos crestas o valles sucesivos. En una onda longitudinal, corresponde a la distancia entre dos compresiones o

entre dos enrarecimientos sucesivos. La frecuencia de una onda es el número de vibraciones por segundo. La velocidad de propagación de la onda es igual a su longitud de onda multiplicada por su frecuencia. En el caso de una onda mecánica, su amplitud es el máximo desplazamiento de las partículas que vibran. En una onda electromagnética, su

amplitud es la intensidad máxima del campo eléctrico o del campo magnético.

3COMPORTAMIENTO DE LAS ONDAS

Versión para imprimir la sección

La velocidad de una onda en la materia depende de la elasticidad y densidad del medio. En una onda transversal a lo largo de una cuerda tensa, por ejemplo, la velocidad

depende de la tensión de la cuerda y de su densidad lineal o masa por unidad de longitud. La velocidad puede duplicarse cuadruplicando la tensión, o reducirse a la mitad

cuadruplicando la densidad lineal. La velocidad de las ondas electromagnéticas en el vacío (entre ellas la luz) es constante y su valor es de aproximadamente 300.000 km/s. Al atravesar un medio material esta velocidad varía sin superar nunca su valor en el vacío.

Cuando dos ondas se encuentran en un punto, el desplazamiento resultante en ese punto es la suma de los desplazamientos individuales producidos por cada una de las ondas. Si

los desplazamientos van en el mismo sentido, ambas ondas se refuerzan; si van en sentido opuesto, se debilitan mutuamente. Este fenómeno se conoce como interferencia.

Ver Difracción.

Cuando dos ondas de igual amplitud, longitud de onda y velocidad avanzan en sentido opuesto a través de un medio se forman ondas estacionarias. Por ejemplo, si se ata a una pared el extremo de una cuerda y se agita el otro extremo hacia arriba y hacia abajo, las

ondas se reflejan en la pared y vuelven en sentido inverso. Si suponemos que la reflexión es perfectamente eficiente, la onda reflejada estará media longitud de onda retrasada con

respecto a la onda inicial. Se producirá interferencia entre ambas ondas y el desplazamiento resultante en cualquier punto y momento será la suma de los

desplazamientos correspondientes a la onda incidente y la onda reflejada. En los puntos en los que una cresta de la onda incidente coincide con un valle de la reflejada, no existe movimiento; estos puntos se denominan nodos. A mitad de camino entre dos nodos, las

dos ondas están en fase, es decir, las crestas coinciden con crestas y los valles con valles; en esos puntos, la amplitud de la onda resultante es dos veces mayor que la de la

onda incidente; por tanto, la cuerda queda dividida por los nodos en secciones de una

longitud de onda. Entre los nodos (que no avanzan a través de la cuerda), la cuerda vibra transversalmente.

Las ondas estacionarias aparecen también en las cuerdas de los instrumentos musicales. Por ejemplo, una cuerda de violín vibra como un todo (con nodos en los extremos), por mitades (con un nodo adicional en el centro), por tercios... Todas estas vibraciones se producen de forma simultánea; la vibración de la cuerda como un todo produce el tono

fundamental y las restantes vibraciones generan los diferentes armónicos.

En mecánica cuántica (véase Teoría cuántica), la estructura del átomo se explica por analogía con un sistema de ondas estacionarias. Gran parte de los avances de la física

moderna se basan en elaboraciones de la teoría de las ondas y el movimiento ondulatorio.

El espectro electromagnético

Las ecuaciones de Maxwell

En el capítulo Electromagnetismo hemos estudiado la interacción electromagnética que está asociada con una propiedad característica de las partículas denominada carga eléctrica.

La interacción electromagnética se describe en términos de dos campos: el campo eléctrico E, y el campo magnético B, que ejercen una fuerza sobre una partícula cargada con carga q que se mueve con velocidad v.

F=q(E+v×B)

Los campos E y B vienen determinados por la distribución de las cargas y por sus movimientos (corrientes). La teoría del campo electromagnético se puede condensar en cuatro leyes denominadas ecuaciones de Maxwell que se pueden escribir de forma integral de la siguiente forma

1. Ley de Gauss para el campo eléctrico

2. Ley de Gauss para el campo magnético

3. Ley de Faraday-Henry

4. Ley de Ampère -Maxwell

Maxwell a partir de un análisis cuidadoso de las ecuaciones del campo electromagnético llegó a predecir la existencia de las ondas electromagnéticas. Fue Heinrich Hertz quién realizó las primeras experiencias con ondas electromagnéticas.

No es muy complicado obtener las ecuaciones de las ondas electromagnéticas a partir de la expresión en forma diferencial de las ecuaciones de Maxwell. Omitiremos esta deducción y señalaremos únicamente sus características esenciales.

1. Las ondas electromagnéticas están formadas por un campo eléctrico y un campo magnético perpendiculares entre sí y a la dirección de propagación. La dirección de propagación está dada por el vector E×B.

2. Las ondas electromagnéticas se propagan en el vacío con una velocidad c.

 

3. Para una onda electromagnética armónica las amplitudes de los campos eléctrico E0 y magnético B0 están relacionados, B0=E0/c.

4. Las ondas electromagnéticas transportan energía y momento lineal.

La energía electromagnética que atraviesa una sección S en la unidad de tiempo es

El momento lineal p por unidad de volumen de una onda electromagnética es el cociente entre la densidad de energía electromagnética y la velocidad c.

 p=ε0(E×B)

 

El espectro electromagnético

Las ondas electromagnéticas cubren una amplia gama de frecuencias o de longitudes de ondas y pueden clasificarse según su principal fuente de producción. La clasificación no tiene límites precisos.

Región del Intervalo de frecuencias (Hz)

espectroRadio-microondas 0-3.0·1012

Infrarrojo 3.0·1012-4.6·1014

Luz visible 4.6·1014-7.5·1014

Ultravioleta 7.5·1014-6.0·1016

Rayos X 6.0·1016-1.0·1020

Radiación gamma 1.0·1020-….

 Fuente: Leonberger. Revealing the small range of radio-microwave frequencies. Phys. Educ. Vol. 37, September 2002, pp. 425-427

En la figura, se muestra las distintas regiones del espectro en escala logarítmica. En esta escala las ondas de radio y microondas ocupan un amplio espacio. En esta escala podemos ver todas las regiones del espectro, sin embargo, el tamaño relativo de las distintas regiones está muy distorsionado.

 

En esta otra figura, se representa las distintas regiones del espectro en escala lineal. Vemos como la región correspondiente a las ondas de radio y a las microondas es muy pequeña comparada con el resto de las regiones. El final de la región ultravioleta estaría varios metros a la derecha del lector, y el final de los rayos X varios kilómetros a la derecha del lector.

Por lo tanto, no se puede dibujar la representación lineal de todo el espectro electromagnético, por que sería de un tamaño gigantesco. Pero se puede dibujar la

representación lineal de una fracción del espectro electromagnético, para darnos cuenta de las dimensiones relativas reales de sus distintas regiones.

Las características de las distintas regiones del especto son las siguientes 

Las ondas de radiofrecuencia

Sus frecuencias van de 0 a 109 Hz, se usan en los sistemas de radio y televisión y se generan mediante circuitos oscilantes.

Las ondas de radiofrecuencia y las microondas son especialmente útiles por que en esta pequeña región del espectro las señales producidas pueden penetrar las nubes, la niebla y las paredes. Estas son las frecuencias que se usan para las comunicaciones vía satélite y entre teléfonos móviles. Organizaciones internacionales y los gobiernos elaboran normas para decidir que intervalos de frecuencias se usan para distintas actividades: entretenimiento, servicios públicos, defensa, etc.

En la figura, se representa la región de radiofrecuencia en dos escalas: logarítmica y lineal. La región denominada AM comprende el intervalo de 530 kHz a 1600 kHz, y la región denominada FM de 88 MHz a 108 MHz. La región FM permite a las emisoras proporcionar una excelente calidad de sonido debido a la naturaleza de la modulación en frecuencia.

 

Las microondas

se usan en el radar y otros sistemas de comunicación, así como en el análisis de detalles muy finos de la estructura atómica y molecular. Se generan mediante dispositivos electrónicos.

La radiación infrarroja

Se subdivide en tres regiones, infrarrojo lejano, medio y cercano. Los cuerpos calientes producen radiación infrarroja y tienen muchas aplicaciones en la industria, medicina, astronomía, etc.

La luz visible

Es una región muy estrecha pero la más importante, ya que nuestra retina es sensible a las radiaciones de estas frecuencias. A su vez, se subdivide en seis intervalos que definen los colores básicos (rojo, naranja, amarillo, verde, azul y violeta).

Radiación ultravioleta

Los átomos y moléculas sometidos a descargas eléctricas producen este tipo de radiación. No debemos de olvidar que la radiación ultravioleta es la componente principal de la radiación solar.

La energía de los fotones de la radiación ultravioleta es del orden de la energía de activación de muchas reacciones químicas lo que explica muchos de sus efectos.

El oxígeno se disocia en la ozonosfera por la acción de la radiación ultravioleta. Una molécula de oxígeno absorbe radiación de longitudes de onda en el intervalo entre 1600 Å y 2400 Å  (o fotones de energía comprendida entre 7.8 eV y 5.2 eV) y se disocia en dos átomos de oxígeno.

O2+fotón→O+O

El oxígeno atómico producido se combina con el oxígeno molecular para formar ozono, O3, que a su vez se disocia fotoquímicamente por absorción de la radiación ultravioleta de longitud de onda comprendida entre 2400 Å y 3600 Å (o fotones de energía entre 5.2 eV y 3.4 eV).

O3+fotón→O+O2

Estas dos reacciones absorben prácticamente toda radiación ultravioleta que viene del Sol por lo que solamente llega una pequeña fracción a la superficie de la Tierra. Si desapareciese de la capa de ozono, la radiación ultravioleta destruiría muchos organismos a causa de las reacciones fotoquímicas.

La radiación ultravioleta y rayos X producidos por el Sol interactúa con los átomos y moléculas presentes en la alta atmósfera produciendo gran cantidad de iones y electrones libres (alrededor de 1011 por m3). La región de la atmósfera situada a unos 80 km de altura se denomina por este motivo ionosfera.

Algunas de las reacciones que ocurren más frecuentemente son:

NO+fotón→NO++e                (5.3 eV) N2+fotón→N2

++e                   (7.4 eV)

O2+fotón→O2++e                   (5.1 eV)

He+fotón→He++e                   (24.6 eV)

 Entre paréntesis se indica la energía de ionización. Como resultado de esta ionización tienen lugar muchas reacciones secundarias.

Rayos X

Si se aceleran electrones y luego, se hacen chocar con una placa metálica, la radiación de frenado produce rayos X. Los rayos X se han utilizado en medicina desde el mismo momento en que los descubrió Röntgen debido a que los huesos absorben mucho más radiación que los tejidos blandos. Debido a la gran energía de los fotones de los rayos X son muy peligrosos para los organismos vivos.

Rayos gamma

se producen en los procesos nucleares, por ejemplo, cuando se desintegran las sustancias radioactivas. Es también un componente de la radiación cósmica y tienen especial interés en astrofísica. La enorme energía de los fotones gamma los hace especialmente útiles para destruir células cancerosas. Pero son también peligrosos para los tejidos sanos por lo que la manipulación de rayos gamma requiere de un buen blindaje de protección.

Ruido e interferencia

Debido a la naturaleza Electromagnética de nuestro universo, es posible

comunicarnos a través del espacio sin ningún oro medio que no es mas que el aire pero

es también debido a ello que existen diferentes tipos de perturbaciones, como lo son las

vientos solares que (son una gama de diferentes radiaciones) o las tormentas eléctricas,

que afectan las señales transmitidas, produciendo efectos no deseados en la recepción,

por lo que es necesario un estudio de todas estos tipos de perturbaciones, para poder

disminuir sus efectos.

Teniendo en cuenta la naturaleza aleatoria de estas perturbaciones es necesario

hacer cálculos estadísticos y tomar en cuenta muchas otras variables por lo que es sólo

una aproximación de lo que se puede concluir en cualquiera de los casos.

El ruido en un sistema de radiocomunicación puede definirse como una

perturbación eléctrica que limita la capacidad del sistema. Las diferentes fuentes de ruido

se pueden clasificar como naturales o artificiales. El ruido artificial aparece como

consecuencia de actividades industriales: tracción de vehículos, transporte y distribución

de energía eléctrica, entre muchos otros. El espectro del ruido artificial disminuye

conforme aumenta la frecuencia, al menos en las bandas de trabajo usuales en

radiocomunicación. Un tipo de ruido artificial que existe en todas las bandas de frecuencia

es el ruido impulsivo que se genera en fluorescentes, motores, pantallas de televisión y

ordenador, y se caracteriza por su elevada amplitud y corta duración.

Por su parte, las fuentes naturales de ruido se modelan con una densidad

espectral de potencia plana. Las fuentes naturales se clasifican en externas e internas al

sistema. Las fuentes externas se deben a la radiación producida por elementos naturales

(Tierra, el sol –considerados a efectos de ruido como cuerpos negros-) y a los efectos del

medio (lluvia, gases atmosféricos, vegetación). Las fuentes internas se encuentran en los

propios circuitos pasivos de conexión de la antena al receptor y en el propio receptor.

Descritas las fuentes de ruido en un sistema de radiocomunicación, a continuación

se procederá a caracterizarlas. En la figura se representa el modelo general de un

sistema receptor que se usará para el cálculo de los parámetros y potencia de ruido.

En primer lugar se caracterizarán los factores que son propios del ruido térmico

para posteriormente aplicarlos a un cuadripolo, un dipolo y un atenuador.

RUIDO

El proceso de  transmisión de señales siempre tiene involucrada perturbaciones e

interferencias no deseadas, que son producidas por señales ajenas a las mismas. Estas

señales ajenas son las que ocasionan el ruido en los sistemas de comunicaciones, dado a

que estas generalmente no son deseadas porque producen una distorsión en la recepción

de la señal original.  Las señales que producen ruido en estos sistemas son de origen

aleatorio y entre distintas fuentes de ruido, se las puede clasificar en:

1. Ruido producido por el hombre.

2. Perturbaciones naturales y erráticas que ocurren irregularmente.

3. Ruido de fluctuación.

Ruido producido por el hombre

El ruido producido por el hombre se debe a la recepción de señales indeseables

provenientes de otras fuentes tales como contactos defectuosos, artefactos eléctricos,

radiación por ignición y alumbrado fluorescente. Este ruido puede evitarse, eliminando  la

fuente que lo produce.

Ruido por perturbaciones naturales y erráticas.

El ruido natural errático puede proceder de relámpagos, tormentas eléctricas en la

atmósfera, ruido intergaláctico, eclipses, o disturbios atmosféricos en general.

Ruido de fluctuación

Este tipo de ruido, aparece dentro de los sistemas físicos y son ocasionados por

fluctuaciones espontáneas como el movimiento término (o movimiento browniano) de los

electrones libres dentro de un resistor, la emisión (aleatoria) de los electrones en válvulas

de vacío y la generación aleatoria, recombinación y difusión de portadores (huecos y

electrones) en semiconductores. A este tipo de ruido se los divide en dos tipos: ruido de

disparo y ruido térmico.

Ahora se realizará una exposición detallada sobre las clasificaciones del ruido de

fluctuación, ya que estos son debidos a los componentes físicos con que están

construidos los sistemas de comunicaciones.

Ruido de disparo

Este tipo de ruido se produce en dispositivos con tubos de vacío y con

semiconductores. En los tubos de vacío este tipo de ruido se debe a la emisión aleatoria

de electrones del cátodo. En los dispositivos semiconductores es causado por la difusión

aleatoria de los portadores minoritarios, generación y recombinación aleatoria de los

pares electrón-hueco.

Sea el ejemplo de la figura, donde el ruido de disparo va a estar dado por la

emisión electrónica del cátodo caliente en un diodo. A una temperatura dada, el número

promedio de electrones emitidos por segundo es constante; sin embargo el proceso de la

emisión electrónica es aleatorio. Esto significa que a distintos intervalos de tiempo

pequeños, el número de electrones emitidos no será el mismo, sino que estará dado en

forma aleatoria.

Sin embargo, en promedio, la emisión electrónica es constante si se consideran

grandes períodos de tiempo. Por lo tanto, la corriente formada por los electrones emitidos

no es constante sino que fluctúa alrededor de un valor medio.

La corriente total i(t) puede considerarse compuesta de una corriente constante Io

y una corriente de ruido in(t) con un valor medio de cero. i(t) = Io + in(t)

Espectro de densidad de potencia del ruido de disparo.

Como la componente in(t) de la corriente total es de naturaleza aleatoria, no puede

especificarse en función del tiempo; sin embargo, ésta representa una señal aleatoria

estacionaria y se especifica por medio de su espectro de densidad de potencia. Puesto

que existen ñ pulsos por segundo, se puede esperar que el espectro de densidad de

potencia de in(t) sea ñ veces mayor que el espectro de densidad de energía de ie(t). 

Entonces si:

entonces Si(w), el espectro de densidad de potencia de in(t), está dado por

Ie(w) es la transformada de Fourier de ie(t) y se puede encontrar como sigue:

donde q es la carga del electrón y ta el tiempo de tránsito (el tiempo que tarda el electrón

en alcanzar la placa). Aplicando la transformada se tiene:

Substituyendo esta en la primera ecuación:

El espectro de densidad de la potencia promedio se puede representar como

función de omega (w), pero observando esta última ecuación es mucho más fácil

representarla como función de w·ta

El espectro de densidad de potencia del ruido de disparo se puede considerar

como constante para frecuencia inferiores a 100MHz. Es decir para estas frecuencias:

Este espectro de densidad de potencia se ve afectado además por la densidad de

carga espacial si la tensión aplicada entre el cátodo y el ánodo es más baja a la utilizada.

En este tipo de operación el nivel de ruido será menor y el espectro de densidad de

potencia va a estar dado por:

Donde a es una constante definida por la constante de Boltzman, la temperatura

del cátodo y la transconductancia del tubo. En general, para los cálculos se suele

representar un diodo ideal sin emisión de ruido en paralelo con una fuente de corriente de

ruido in(t). La siguiente figura muestra esta configuración:

En los tubos triodos, pentatrodos y otros multielectrodos, los mecanismos de

producción del ruido de disparo son en esencial similares a los que se presentan en un

diodo limitado de carga espacial. En estos, el espectro de densidad de potencia estará

dado por:

k = constante de Boltzman,

Tc = temperatura del cátodo en grados Kelvin,

T = temperatura ambiente en grados Kelvin,

gm = transconductancia dinámica.

En este tipo de componentes además existirá una componente de ruido en la

tensión de entrada.

Ruido térmico

Este tipo de ruido se debe al movimiento aleatorio de los electrones libres en

medios conductores tales como resistores. Debido a su energía térmica, cada electrón

libre dentro de un resistor está en movimiento; la trayectoria del movimiento de un

electrón es aleatoria debido a sus colisiones. El movimiento de todos los electrones

establece la corriente eléctrica por el resistor. La dirección del flujo de corriente es

aleatoria y su valor medio es cero. Se puede demostrar que su espectro de densidad de

potencia está dada por:

donde k es la constante de Boltzman, T la temperatura ambiente, G es la conductancia

del resistor (en mhos) y a es el número promedio de colisiones por segundo de un

electrón.

El orden de magnitud de a es de 1014 número de colisiones por segundo, por lo

que el espectro será esencialmente plano a frecuencias muy altas. Este se puede

considerar plano hasta frecuencias en el rango de 1013Hz.

Por lo tanto, la contribución de ruido térmico de cualquier circuito está limitada al

ancho de banda del mismo, así que generalmente se considera que el ruido térmico tiene

un espectro de densidad de potencia constante, es decir que contiene componentes de

todas las frecuencias. A este tipo de ruido, por su particularidad  se le conoce como

RUIDO BLANCO.

Por lo tanto, una resistencia R se puede representar por una conductancia G (1/R)

no ruidosa en paralelo con una fuente de corriente de ruido (in) con un espectro de

densidad de potencia 2kTG, como se ilustra en la figura. Esta también puede

representarse con un equivalente de Thévenin, donde:

Caracterización del ruido térmico

El ruido térmico es una perturbación de carácter aleatorio que aparece de forma

natural en los conductores por agitación de los electrones; es dependiente de la

temperatura, de modo que aumenta su potencia conforme ésta aumenta. Se suele

denominar ruido blanco debido a que, en la gama de frecuencias particular de trabajo, se

puede considerar con densidad espectral uniforme.

La potencia media de ruido térmico en una resistencia pura se puede considerar

como un generador de tensión asociado a esa resistencia con valor cuadrático medio:

Vn2 = 4kTBR

Vn: valor cuadrático medio de la tensión de ruido (V2)

k : constante de Boltzmann, 1,381 10-23 Julios/Kelvin

t : temperatura absoluta (Kelvin, K)

B : ancho de banda (Hz)

R : resistencia (ohmios, W)

La potencia media de ruido es la que se entrega al receptor visto como una carga,

y su valor máximo se puede obtener en condiciones de adaptación de impedancias. Su

expresión es:

N=kTB

N : potencia media de ruido (W)

Guía de calculo de ruido propagación o ruido térmico

Formula para telefonía

La relación señal Ruido esta dada por la formula.

S/N= Pr/(K F T b)= (DF2/Fc) · r · w

Donde

Pr = Potencia recibida

F = Figura de ruido del receptor

KT = Constante de Boltzmann

b = ancho de banda del canal telefónico

Fc = frecuencia del canal

r = preenfasis

w = Factor de ponderación

Df = excursión de frecuencias rms

(Df/Fc)2 = Ganancia de modulación

Expresada en dB la relación señal ruido esta dada por:

(S/N)(dB) = 10log(Pr)-10log(F K T b)+20log(Df/Fc)+r+w

Todos los términos excepto Pr son constantes ara un material.

Dado utilizado en condiciones determinadas. Por lo tanto podemos escribir:

(S/N)(dB) = Pr (dBm) - Rref (dBm)

Rref = 10log (F K T b) -20log(Df/Fc) - r - w

Sustituyendo valores:

b=3100 Hz ; K=1.38x10-23 W ; T=290 ºK

Rref = -139,2 dBm + F(dB)-20log(Df/Fc) - r(dB) - w(dB)

Valores de Fc

Nº de canales 24 60 120 900 600 960 1800 2700

Fc(Khz) 104 240 534 1248 2438 3886 7600 11700

Df = 200 Khz para n = 60 – 960

Df = 200 Khz para n = 1800 – 2700

Nº de canales 24 60 120 900 600 960 1800 2700

20log(Df/Fc) 5.68 -1.58 -8.53 -15.9 -21.72 -25.77 -34.69 -38.44

El ruido N es expresado en potencia (picowatts) resulta:

FUENTES DE RUIDO Y DE INTERFERENCIA

Ruido térmico (Thermal Noise)

Todos los objetos cuya temperatura esta por encima del cero absoluto (0 grados

Kelvin) generan ruido eléctrico en forma aleatoria debido a la vibración de las moléculas

dentro del objeto. Este ruido es llamado ruido térmico. La potencia de ruido generada

depende solo de la temperatura del objeto, y no de su composición. Ya que esta es una

propiedad fundamental, el ruido frecuentemente definido por su temperatura equivalente

de ruido. La temperatura de ruido puede darse tanto en grados Kelvin como en decibeles.

A continuación se presenta una formula para convertir grados Kelvin a dB.

T (dB) = 10*log10(1+K/120)

T = temperatura equivalente de ruido en dB

K = temperatura en grados Kelvin

La temperatura de el aire alrededor a nuestro alrededor es aproximadamente 300K

(27ºC), y la temperatura del sol es muy alta (alrededor de 5,700K). Es posible construir un

amplificador cuya temperatura equivalente de ruido este por debajo de su actual

temperatura, y así agregar el menor ruido posible al receptor.

Los amplificadores de bajo ruido (Low Noise Amplifier LNA) de los sistemas de

satélite están clasificados en temperatura equivalente de ruido para indicar su ruido

térmico.

Ruido de Choque (Shot Noise)

Los diodos limitados por la temperatura, los cuales virtualmente incluye a todos los

semiconductores, generan ruido de choque cuando la corriente pasa a través del ellos. El

ruido resultante es debido por la corriente que pasa por en forma de partículas discretas

(electrones) y un impulso es generado por el paso de cada partícula. El ruido es

proporcional a la corriente. La corriente cero es igual al ruido térmico.

Ruido Atmosférico (Atmospheric Noise)

Existe un ruido que es interceptado por la antena llamado ruido atmosférico. El

ruido atmosférico es muy alto para bajas frecuencias, y decrece cuando se incrementa la

frecuencia. Esta presente en toda la banda de radiodifusión AM y éste no puede ser

eliminado por el amplificador y el diseño de la antena. El ruido atmosférico decrece

bastante en frecuencias de TV y FM.

Fuentes de interferencia

La interferencia básicamente es hecha por el hombre excepto por condiciones

atmosféricas y del clima. La más notable son las descargas eléctricas (rayos). A

continuación se mencionan algunos ejemplos de fuentes de interferencia:

Sistema de encendido de vehículos,

Motores eléctricos, líneas de alta tensión,

luces de neón y fluorescentes

Computadoras,

Otros tipos de transmisión, tales como la radio amateur, CB (Banda Civil), radio de

la policía y otros servicios públicos, inclusive otras estaciones de FM o TV.

Generalmente las fuentes que irradian señales periódicas e intermitentes son

llamadas fuentes de impulso. Algunos ejemplos son: interruptores eléctricos, luces de

neón destellando, encendido de automóvil, rayos, etc. Los impulsos son de corta duración

(microsegundos) y frecuentemente tienen amplitudes más grandes que la señal que esta

siendo recibida. La interferencia puede ser irradiada como interferencia electromagnética

(EMI), o conducida sobre las líneas eléctricas, en el caso del equipo con alimentación de

Corriente alterna (AC).

Otros tipos de interferencia

Interferencia de canales adyacentes

La interferencia de canales adyacentes es muy común en arreas metropolitanas

donde las estaciones (de AM o FM por ejemplo) son asignadas en frecuencias muy

cercanas. En esas áreas donde la congestión de canales existe, los efectos pueden ser

minimizados (si las estaciones están en diferentes direcciones) usando un rotor para

orientar la antena para la mínima interferencia.

FACTOR DE RUIDO Y TEMPERATURA EQUIVALENTE DE RUIDO

Dado un cuadripolo activo o pasivo de ganancia de potencia g, la potencia de ruido

a su salida, nS, es mayor que el producto de la ganancia por la potencia de ruido a la

entrada, ya que el propio dispositivo genera en su interior un ruido térmico que contribuye

a aumentar el ruido de salida.

En consecuencia la potencia de ruido a la salida será:

ns = g · ns + ni

La cuantía del ruido térmico depende de la ganancia y diseño del cuadripolo así

como de la temperatura. Desde un punto de vista operativo resulta conveniente definir

algún parámetro que caracterice el dispositivo en función del ruido interno que produce y

que conduzca a un cálculo cómodo del ruido de salida.

Se han establecido dos parámetros: el factor de ruido y la tempertatura equivalente

de ruido.

Temperatura equivalente de ruido

Se define la temperatura equivalente de ruido de un cuadripolo, teq, como el

cociente entre la potencia de ruido interno y kBg

ni = k B g teq

La temperatura equivalente depende exclusivamente del cuadripolo y no de la

temperatura a que se encuentre su entrada.

La temperatura equivalente también se puede interpretar como el valor que hay

que sumar a la temperatura de la fuente para obtener la potencia de ruido de salida nS

suponiendo que el cuadripolo no introdujera ruido.

Ns = k B ti = k B g (ts + teq)

La señal a la salida del cuadripolo se verá multiplicada por la ganancia de éste:

ss = se + g

Por tanto, aumentará menos que el ruido, y la relación señal a ruido disminuirá:

La relación señal a ruido disminuirá tanto más cuanto mayor sea el cociente entre

la temperatura equivalente y la temperatura a la entrada.

Factor de ruido

Se define el factor de ruido de un cuadripolo, f, a partir de la potencia de ruido interno del

modo siguiente:

ni = k B g to (f - 1)

con t0 la temperatura ambiente de referencia, 290K. El factor de ruido siempre toma

valores superiores a la unidad.

De este modo, la potencia de ruido a la salida del cuadripolo será:

ns = ng g + k B g to (f - 1)

De estas expresiones, se determina la equivalencia entre factor de ruido y

temperatura equivalente de ruido:

teq = to (f - 1) Þ f = 1 + teq / to

La temperatura equivalente de ruido se suele usar en dispositivos con factor de

ruido muy pequeño como son los empleados en telecomunicación por satélite. El factor de

ruido se suele emplear en sistemas de telecomunicación terrena –comunicaciones entre

una estación en tierra o en la atmósfera y la otra en el espacio- y terrestre –tanto

transmisor y receptor se encuentran en la superficie terrestre-.

El factor de ruido se expresa ordinariamente en dB, en cuyo caso se le suele

llamar figura de ruido, F

F = 10 log f

Sólo en el caso de que la potencia de ruido a la entrada del cuadripolo sea kbt0,

Cuando se pretende medir el factor de ruido de un dispositivo y teniendo en cuenta

que el ruido interno es independiente de la terminación de salida o carga del cuadripolo,

se simulan estas condiciones particulares –potencia de ruido a la entrada, kbt0-. Así, el

factor de ruido se calcularía como el cociente entre la potencia disponible de ruido total a

la salida y la potencia disponible de ruido a la salida debida a la terminación de entrada a

la temperatura de referencia t0 supuesto que el cuadripolo no introdujera ruido.

Sólo en el caso de que la potencia de ruido a la entrada del cuadripolo sea kbt0, se

puede interpretar el factor de ruido como el cociente entre las relaciones señal/ruido a la

entrada y a la salida del dispositivo:

Temperatura equivalente de ruido y factor de ruido de un atenuador

Para caracterizar a un atenuador desde el punto de vista de ruido, basta definir la

atenuación, a, que introduce y la temperatura física, tfis, a la que se encuentre. La

temperatura equivalente de ruido se particulariza en función de a y tfis:

mientras que el factor ruido quedaría:

Sólo en el caso de que tfis = 290K, f=a

Factor de ruido de un dipolo.

En el caso de un dipolo, sólo existe acceso a los terminales de salida, y las únicas

fuentes de ruido son internas. Si la potencia disponible de ruido en los bornes del dipolo

es n, se definen el factor de ruido y la temperatura de ruido como sigue:

Una antena es un caso particular de dipolo, donde la temperatura de antena se

calcula del modo que se explica en el apartado 2.

Factor de ruido de un sistema.

Otro factor de ruido utilizado al describir los receptores es el factor de ruido del

sistema. En esta expresión se tiene en cuenta el ruido interno de los cuadripolos y el ruido

presente a la entrada del sistema. Se obtiene como sigue:

Conjunto de atenuador y amplificador.

Un caso particular de la expresión anterior se tiene cuando uno de los cuadripolos

es un atenuador. Este caso es muy frecuente en la recepción ya que tras la antena hay

que amplificar la señal y guiarla hasta el receptor mediante una línea de transmisión que

se comporta como un atenuador. El orden entre el amplificador y el atenuador hace que

varíe el ruido final tal y como se verá a continuación.

Si se pone primero el atenuador (con atenuación a y temperatura física tfis) y luego

el amplificador (con ganancia g y temperatura equivalente teqa), la temperatura equivalente

de ruido del conjunto será:

Si se pone primero el amplificador y después el atenuador, la temperatura

equivalente de ruido del conjunto será:

Esta expresión siempre es menor que la anterior ya que los dos sumandos son

siempre menores, puesto que a y g son mayores que 1.

De esto se concluye que siempre que sea necesario amplificar, hay que hacerlo

cuanto antes para que el ruido introducido al final sea menor.

Si no es necesario amplificar, se tiene una tercera opción, que es utilizar sólo la

línea de transmisión, teniendo una temperatura equivalente:

Esta expresión puede ser mayor o menor que la del caso 2 (primero amplificador y

luego atenuador). Dependerá sobre todo de cuánto sea la atenuación y también de lo

bueno que sea el amplificador. Para estos casos se utilizan los amplificadores de bajo

ruido (LNA) que se caracterizan por tener una ganancia elevada y un ruido bajo.

Como ejemplo, si se tiene una temperatura física t0, una ganancia de 100, y una

temperatura equivalente del amplificador de 2t0, se tiene el siguiente resultado para varias

atenuaciones:

Atenuación Temperatura equivalente (caso 2) Temperatura equivalente (caso 3)

10 2,09 t0 9 t0

2 2,01 t0 t0

Se aprecia que con la introducción del amplificador, la temperatura equivalente se

hace más estable y más próxima a su temperatura equivalente, mientras que sin

amplificador, la temperatura equivalente puede variar desde valores bajos (donde no

compensaría el amplificador) hasta valores mucho mayores.

RUIDO DE UNA ANTENA

Potencia de ruido introducido por una antena.

En general, una antena puede modelarse circuitalmente como dos resistencias

en serie: una resistencia ficticia denominada de radiación, Rr, y una resistencia que

representa las pérdidas de la antena, Rp. Teniendo en cuenta esto, podemos afirmar que

el ruido total introducido al sistema por una antena será el debido a ambas resistencias.

Así, por un lado, el ruido introducido por Rr equivale al ruido captado por la antena –se

caracteriza por una temperatura de ruido tA que se determinará más adelante-, mientras

que el producido por Rp es debido a las pérdidas de la antena y está caracterizado por la

temperatura ambiente, tar.

Dado que el ruido introducido por “ambas resistencias” está incorrelado, para

calcular la potencia de ruido entregada a ZL podemos aplicar el teorema de superposición:

a) en primer lugar, calculamos la potencia de ruido entregada a ZL, na, debido a Rr

suponiendo que Rp no introduce ruido;

b) después, calculamos la potencia de ruido entregada a ZL, nar, suponiendo que Rr

no introduce nada de ruido.

c) La potencia total de ruido entregada por la antena, ner, será la suma de ambas

potencias.

Sabiendo que, en general, el ruido introducido por una resistencia se caracteriza

por una tensión de ruido cuyo valor cuadrático medio es

k = constante de Boltzmann,

t = la temperatura de ruido,

b = el ancho de banda

R = el valor de la resistencia, se calculan los valores de na y nar.

a) Cálculo de na .

Se supone que la resistencia de pérdidas no introduce ruido. Si se particulariza

(29) para la resistencia de radiación, (29) se convierte en

con lo cual

Donde Gr es el coeficiente de reflexión debido a la des adaptación de impedancias

existente entre la antena y la línea de transmisión y el receptor.

b) Cálculo de nar .

De igual modo que en el caso anterior y suponiendo que la resistencia de radiación

no introduce ruido, (29) se convierte en

con lo cual

De este modo,

Teniendo en cuenta que la potencia disponible en bornes de la antena, ndr, es la

que se entregaría en condiciones de adaptación de impedancias, la potencia de ruido

entregada al receptor se puede poner en función de ndr del siguiente modo:

Rescribiendo ndr

Se comprueba que esta expresión coincide con la que caracteriza la potencia de

ruido a la salida de un atenuador de temperatura física tar y atenuación Rr+Rp/Rr cuando a

la entrada se tiene un generador de ruido de potencia kbtA.

Una antena con los siguientes parámetros:

-Temperatura de antena, tA,

-Resistencia de radiación, Rr,

-Resistencia de pérdidas, Rp, a una temperatura física, tar,

Se puede modelar a efectos de ruido como una antena ideal de temperatura

equivalente tA conectado en serie con un atenuador de temperatura física tar y eficiencia ηr

=1/aar=Rr/(Rr+Rp)

R eceptorLínea de tx R S

A ntena

AA tenuador

a (R + R )r p rar= /Rtar

kbtA

Factor y temperatura equivalente de ruido de un sistema receptor.

En la figura se representa el modelo general del sistema receptor usado para el

cálculo de los parámetros y potencia de ruido.

R eceptorLínea de tx R S

A ntena

AA tenuador

a = Rar r(R +R ) /r p

tar

kbtA

a tr

t tr

gf r

El modelo está constituido por los siguientes elementos:

a) La antena real se modela, como ya se explicó, como una antena ideal con una

temperatura equivalente de ruido igual a tA y un factor de ruido fA ( fA=tA/t0) conectada

en serie con un atenuador de atenuación aar y tar, ya definidas.

b) Línea de transmisión que conecta la antena al receptor con una temperatura t tr y

unas pérdidas atr.

c) Receptor propiamente dicho, con una ganancia de potencia g y un factor de ruido fr.

El punto A indica la salida de la antena real, R indica la entrada del receptor y S

la salida del receptor.

Formulación desde el punto de vista de la entrada de la antena:

Para la formulación del ruido del sistema receptor, se define un sistema

equivalente al descrito constituido por un cuadripolo con una ganancia de potencia igual a

g/(aar atr) y a cuya entrada hay conectada una fuente de ruido a la temperatura de

referencia, t0.

El sistema equivalente nos daría como ganancia conjunta la que tendría una señal

captada por la antena a través de su ganancia directiva.

Se define el factor de ruido del sistema, fsis, de forma que la potencia de ruido del

interfaz S sea la misma en el modelo de la figura anterior que en el sistema equivalente:

Así para el modelo de la figura 5, la potencia de ruido en S sería:

con lo que el valor del factor de ruido del sistema receptor:

mientras que la temperatura equivalente de ruido vale

Formulación desde el punto de vista de la salida de la antena

Para la formulación del ruido del sistema receptor, se define un sistema

equivalente al descrito constituido por un cuadripolo con una ganancia de potencia igual a

g/atr y a cuya entrada hay conectada una fuente de ruido a la temperatura de referencia,

t0.

El sistema equivalente nos daría como ganancia conjunta la que tendría una

señal captada por la antena a través de su ganancia de potencia.

Se define el factor de ruido del sistema, fsis, de forma que la potencia de ruido del

interfaz S sea la misma en el modelo de la figura anterior que en el sistema equivalente:

Así para el modelo de la figura 5, la potencia de ruido en S sería:

con lo que el valor del factor de ruido del sistema receptor:

mientras que la temperatura equivalente de ruido vale

La nueva temperatura de ruido y factor de ruido del dipolo a la salida de la antena

vale:

Puede parecer extraño que haya dos factores de ruido diferentes. Si

desarrollamos las expresiones tenemos:

con lo que la potencia de ruido es igual en ambos casos como cabía esperar.

Ejemplo. Un sistema receptor tiene las siguientes características en lo que respecta al

ruido:

Temperatura de ruido de la antena: TA=1296K

Pérdidas en la antena: Aar= 0,5dB

Pérdidas en la línea de transmisión: Atr=1,5dB

Figura de ruido del receptor: F r=8dB

Ganancia del receptor: G=25dB

Anchura de banda: b=16KHz

Se supone todo el conjunto a la temperatura 300K.

a) Factor de ruido del sistema desde el punto de vista de la entrada de la antena.

b) Temperatura equivalente, referida a la salida de la antena.

c) Potencia de ruido a la salida del receptor.

Solución:

Factor de ruido de la antena:

Pérdidas en el circuito de antena

Pérdidas en la línea de transmisión

Ganancia del receptor

Factor de ruido del receptor

Temperatura equivalente de ruido del receptor:

Teniendo en cuenta esto:

a)

b)

c)

CONCLUSIONES

- El ruido producido por el hombre tiene origen en los contactos defectuosos, los

artefactos eléctricos encendidos, la radiación por ignición de motores, los tubos

fluorescentes encendidos y puede evitarse con solo eliminar la fuente.

- El ruido por perturbaciones naturales y erráticas se origina por las tormentas

eléctricas, el ruido intergaláctico y los eclipses, no puede ser eliminado.

- El ruido por fluctuación se produce en el interior de los dispositivos electrónicos y

es debido al movimiento térmico, la emisión de electrones en los tubos al vacío, la

recombinación y difusión de los portadores en los dispositivos semiconductores.

- El ruido por fluctuación se manifiesta de dos maneras: como ruido de disparo y

como ruido térmico o ruido blanco.

- El ruido de disparo se produce en los tubos de sellado al vacío y en los

dispositivos semiconductores, ambos en el momento de su disparo. Se generan

por la emisión espontánea de electrones y por la difusión de portadores

minoritarios, respectivamente.

- El ruido térmico se debe al movimiento aleatorio de los electrones en la red

semiconductora durante la conducción.

Fuente de alimentación

De Wikipedia, la enciclopedia libreSaltar a navegación, búsqueda

Fuente de alimentación de una computadora

En electrónica, una fuente de alimentación es un circuito que convierte la tensión alterna de la red industrial en una tensión prácticamente continua.

Contenido[ocultar]

1 Clasificacion o 1.1 Fuentes de alimentación continuas

2 Especificaciones

3 Véase también

4 Enlaces externos

Clasificacion [editar]

Las fuentes de alimentación o fuentes de poder se pueden clasificar atendiendo a varios criterios:

Fuentes analógicas: sus sistemas de control son analógicos.

Fuentes de alimentación continuas [editar]

Usualmente la entrada es una tensión alterna proveniente de la red eléctrica comercial y la salida es una tensión continua con bajo nivel de rizado. Constan de tres o cuatro etapas:

sección de entrada: compuesta principalmente por un rectificador, también tiene elementos de protección como fusibles, varistores, etc.

regulación: su misión es mantener la salida en los valores prefijados.

salida: su misión es filtrar, controlar, limitar, proteger y adaptar la fuente a la carga a la que esté conectada.

Este tipo de fuentes pueden ser tanto lineales como conmutadas.

Las fuentes lineales siguen el esquema: transformador, rectificador, filtro, regulación y salida. En primer lugar el transformador adapta los niveles de tensión y proporciona aislamiento galvánico. El circuito que convierte la corriente alterna en continua se llama rectificador, después suelen llevar un circuito que disminuye el rizado como un filtro de condensador. La regulación se consigue con un componente disipativo regulable. La salida puede ser simplemente un condensador.

Las fuentes conmutadas tienen por esquema: rectificador, conmutador, transformador, otro rectificador y salida. La regulación se obtiene con el conmutador, normalmente un circuito PWM (Pulse Width Modulation) que cambia el ciclo de trabajo. Aquí las funciones del transformador son las mismas que para fuentes lineales pero su posición es diferente. El segundo rectificador convierte la señal alterna pulsante que llega del transformador en un valor continuo. La salida puede ser también un filtro de condensador o uno del tipo LC.

Las ventajas de las fuentes lineales son una mejor regulación, velocidad y mejores características EMC. Por otra parte las conmutadas obtienen un mejor rendimiento, menor coste y tamaño.

Especificaciones [editar]

Una especificación fundamental de las fuentes de alimentación es el rendimiento, que se define como la potencia total de salida entre la potencia activa de entrada. Como se ha dicho antes, las fuentes conmutadas son mejores en este aspecto.

El factor de potencia es la potencia activa entre la potencia aparente de entrada. Es una medida de la calidad de la corriente.

Aparte de disminuir lo más posible el rizado, la fuente debe mantener la tensión de salida al voltaje solicitado independientemente de las oscilaciones de la línea, regulación de línea o de la carga requerida por el circuito, regulación de carga.

Entre las fuentes de alimentación alternas, tenemos aquellas en donde la potencia que se entrega a la carga está siendo controlada por transistores, los cuales son controlados en fase para poder entregar la potencia requerida a la carga.

Otro tipo de alimentación de fuentes alternas, catalogadas como especiales son aquellas en donde la frecuencia es variada, manteniendo la amplitud de la tensión logrando un efecto de fuente variable en casos como motores y transformadores de tensión...

- Como fuentes de ruido e interferencia se tiene: dispositivos a temperaturas

superiores a los 0K (-273.15ºC), los diodos limitados por la temperatura, el

encendido de vehículos, los motores eléctricos, las líneas de transmisión, las luces

de neón, las computadoras, los sistemas de comunicación por radio, los teléfonos

celulares, entre otros.

- Los parámetros de caracterización del ruido son el factor de ruido y la temperatura

equivalente, este último define al factor de ruido y se busca que sea muy baja en

los sistemas de comunicación satelital.

- La antena, por su parte, puede ser modelada como dos resistencias fictícias en

serie que representan el aporte de ruido de la antena al sistema. Una de estas

resistencias es Rr que corresponde al ruido recibido por la antena y la otra es Rp

que corresponde a las pérdidas de la antena.

Grabación Magnética

Enviado por juliococco

INDICE:

Principios Generales Relación velocidad de cinta (Vc) respecto del ancho de entrehierro (d) Alinealidades Soluciones para la grabación de una señal de video

Principios generales

En la actualidad la grabación magnética no tiene mayores secretos, pero no se puede olvidar que se debieron superar importantes escollos, donde quedó demostrado el ingenio y la creatividad de los especialistas de la época. En esta parte se pretende manifestar eléctrica, física y matemáticamente los procesos de grabación y reproducción, los inconvenientes que se presentan y sus soluciones; muy simples e ingeniosas por cierto.

En la figura se muestra esquemáticamente el proceso de grabación en una banda magnética y su posterior reproducción. El cabezal consiste en una herradura de material ferromagnético sobre la cual se encuentra un arrollamiento que origina el flujo y sobre él, también sobre el mismo se induce la señal que se ha de reproducir. En el proceso de grabación el cabezal imprime una huella o camino donde ordena magnéticamente las partículas que sobre él se encuentran; al camino así formado lo denominaremos pista.

(t) que se origina en el circuito magnético y que se imprime en laEl flujo cinta por estar cerrando el entrehierro (gap) es proporcional a la corriente i(t) que circula por el bobinado de la cabeza grabadora. En general la grabación se efectúa por medio de una fuente de corriente proporcional a la señal de entrada, para evitar los efectos de distorsión que provoca la inductancia del bobinado. De este modo se asegura que el flujo en el entrehierro, sea proporcional a la tensión de entrada en todas las frecuencias.

i(t) = k Ve(t) = C(t) = K i(t); luego: ; Ve; suponiendo una entrada armónica (senoidal), Ve = Ve sen t;

(t) = C Vresulta entonces: e sen t.

En resumen, el flujo en el entrehierro, que magnetizará la cinta en movimiento, seguirá sin modificaciones los valores instantáneos de la señal de entrada.

En la reproducción las condiciones se modifican. El campo magnético que está grabado en la cinta, al moverse esta última frente al entrehierro, produce en el circuito magnético del cabezal un flujo variable '(t) y este dará origen a una fuerza electromotriz inducida en la bobina del cabezal que podemos observar como Vs. Esta tensión podemos expresarla como sigue:

Vs

operando (recordando que la señal grabada era senoidal), tendremos:

Vs

Resultando Vs como el valor máximo de la tensión de salida:

Vs C V= e

De modo que, en conclusión de esta última ecuación, podemos decir que el valor y ende pico de la señal de salida es proporcional a las pulsaciones consecuencia a la frecuencia de la señal grabada, dado que C y Ve son constantes. En este caso se debe resaltar que la velocidad relativa cinta cabezal tanto en grabación como en reproducción debe ser la misma.

Podemos analizar la siguiente situación: supongamos que la señal grabada es un barrido de frecuencia de amplitud constante, donde f1 es la frecuencia mínima y f2 la frecuencia máxima, resultará entonces Vs1 la tensión de salida para la frecuencia menor y Vs2 la tensión de salida para la frecuencia mayor, pero debido a la proporcionalidad expresada anteriormente, encontraremos que estas se relacionan de la siguiente manera:

de esta última expresión encontraremos que si, f2 = 2 f1, vale decir que la frecuencia máxima es el doble de la mínima (una octava mayor) la diferencia de amplitudes será también el doble, dicho en decibeles la diferencia resulta 6 dB. Ahora bien, si el margen de frecuencias es 10 (diez), también la diferencia de amplitudes será de 10 (diez) o lo que es lo mismo 20 dB. Ejemplo: si se tienen dos señales de 100 Hz y 200 Hz respectivamente que originalmente tienen la misma amplitud, al reproducir, la señal de mayor frecuencia tendrá el doble de amplitud. Dentro de ciertos límites de frecuencia esto no es preocupante, se recurre a procesos de ecualización, es decir circuitos que producen el efecto inverso, o sea, amplificar más las frecuencia más bajas y menos las frecuencia mayores; asunto resuelto.

Veamos ahora un ejemplo para televisión: si aceptamos un ancho de banda reducido teniendo como límites o extremos de frecuencias 50 Hz y 2,5 MHz, la relación de frecuencias es de 50000 (suponiendo además que la grabación fue realizada con amplitud constante), la relación de tensiones de salida será la misma, es decir, si la tensión de salida para 50 Hz es 1 mV, la tensión de salida para 2,5 MHz será de 50 V. Estas diferencias de tensiones entre los extremos de frecuencias nos hace reflexionar sobre la posibilidad de una ecualización, y, intuitivamente podemos decir que resulta casi impracticable y que además tropezaríamos con otros inconvenientes, como ser la relación señal-ruido.

Como conclusión de lo expresado en los últimos párrafos, se puede decir que la grabación y reproducción de frecuencias variables, y, fundamentalmente si entre los extremos del ancho de banda existe un amplio margen, presenta ciertas dificultades. Por supuesto, éstas fueron resueltas con gran creatividad en la época.

Relación velocidad de cinta [Vc] respecto del ancho de entrehierro [d]

Otra dificultad que se presenta en la grabación de frecuencias elevadas, es a causa de la relación existente entre la velocidad de cinta [Vc] y el ancho del entrehierro del cabezal [d] (gap).

Para esta parte del estudio, debemos hacer algunas consideraciones previas:

La cinta esa formada por pequeñas partículas que han de ser convertidas en imanes (magnetizadas) durante la grabación Estas partículas constituyen imanes de alta remanencia, es decir, permanecen en el mismo estado, mientras no actúen sobre las mismas campos magnéticos que las obliguen a orientarse en forma diferente. En esta etapa analizaremos el comportamiento de una de estas partículas que han de ser convertidas en imanes, para almacenar la información. La figura muestra distintas situaciones, que relacionan el flujo magnetizante y el desplazamiento de la partícula elemental en el espacio del entrehierro. Para poder continuar diremos también que la velocidad de cinta [Vc] es constante y además la misma en la grabación y reproducción. Este movimiento debe ser lo más uniforme posible (controlado por medios electrónicos); dado que toda diferencia de velocidad será causa de deformaciones de la señal. Separemos dos casos:

Frecuencias altas. Mientras la partícula elemental recorre el entrehierro, ésta es magnetizada en distintos sentidos o con polaridades opuestas, según el semiciclo que se trate de la señal alterna que se pretende grabar. Por estar considerando una frecuencia

elevada, el cambio de orientación magnética producido por la señal es más rápido que el tiempo empleado por elemento de cinta, para salir de la zona de influencia del flujo existente en el entrehierro.

Frecuencias bajas. Cuando se graba señales de baja frecuencia, en el instante de ingreso de la partícula en estudio, el flujo grabador, tiene un signo y se mantiene hasta salir la partícula, cambiando de signo cuando ésta ya ha abandonado la zona del entrehierro, según se observa en la figura.

De este análisis cualitativo, se desprende, según se ha expresado anteriormente, que las posibilidades de grabar frecuencias elevadas, están relacionadas con el ancho del entrehierro [d] y la velocidad relativa de desplazamiento [Vc] respecto del cabezal. Una reducción del entrehierro, un aumento de la velocidad de cinta o ambas simultáneamente, harán que el elemento magnetizado, salga de la zona de influencia del flujo antes del cambio de polaridad del campo creado por las señal (si cambia la polaridad implica una desmagnetización o reducción del magnetismo almacenado por la partícula).

Es importante resaltar que al hablar de velocidad de desplazamiento, siempre se referencia a la velocidad relativa cinta-cabezal, dado que el proceso es el mismo ya sea que la cinta se desplace frente a la cabeza grabadora (caso de audio), o bien, que la cabeza se mueva respecto de la cinta (videograbación).

El problema descrito anteriormente, no es más que una introducción; grabar frecuencias elevadas no es fácil. Para tener una idea más completa, es necesario hacer un estudio más profundo del proceso de grabación. Veamos la figura:

Si se toma una pequeña partícula, puede aceptarse, que el nivel de magnetización que se acumula al recorrer el entrehierro, es el valor medio de la magnetización producida por el flujo variable que existe en el mismo. Como ejemplos tenemos los caso representados en las figuras.

En el primer caso, mientras la partícula recorre el (t) originado por la señal ha promediado unancho del entrehierro, el flujo valor positivo, dado que la mayor parte del tiempo, la señal ha mantenido ese signo. Si se desea cuantificar el valor deberemos integrar el (t) entre el instante de inicio de la magnetización (entrada de laflujo partícula al entrehierro) y la finalización (salida de la partícula).

En el segundo caso, encontramos que el flujo ha mantenido un sentido de magnetización durante el primer semiciclo, pero, durante el segundo al cambiar la orientación el resultado es una desmagnetización, siendo cero el campo remanente al salir de la zona del entrehierro.

En la tercer figura, el flujo cambia de signo tres veces mientras el elemento de cinta recorre le gap, tenemos dos semiciclos positivos que magnetizan la partícula y uno solo negativo que desmagnetiza, con lo cual el valor promedio será positivo.

De los tres casos representados se puede decir y aceptar como la peor condición, el caso en que la partícula elemental acumula energía magnética durante todo un semiperíodo de la señal de grabación y sale justo en el momento en que ésta cambia de signo, vale decir, que el tiempo que lleva transponer el entrehierro a la partícula es el mismo que un semiperiodo de la señal de grabación (durante el positivo acumula energía magnética, pero, en ningún momento la pierde o cede). Esta situación la podemos ejemplificar claramente si pretende grabar una onda cuadrada, al menos debemos tener una partícula orientada en un sentido y otra totalmente opuesta para definir completamente un alto y un bajo respectivamente.

Teniendo en cuenta el proceso de grabación para las distintas frecuencias, la curva de reproducción total del sistema será la que se observa, suponiendo una grabación a corriente constante. Como se puede apreciar la magnetización de la cinta cae en las frecuencias múltiplos de la que se ha considerado como máxima, es decir, donde a la partícula de cinta le toma un tiempo igual al período de la señal o un múltiplo de la mismo atravesar el entrehierro y salir de la zona de acción del flujo magnetizante.

Para comprender mejor el tema es conveniente ver algún ejemplo real. En audio, para la grabación en casetes se utiliza como velocidad normalizada Vc = 4,75 cm/s; adoptemos a d = 3 m. Veamos ahora, la velocidad de la partícula [Vc]: según la física, movimiento rectilíneo uniforme, la velocidad se puede escribir como sigue:

Vc = e (espacio) / t (tiempo)

De acuerdo a lo definido como condición límite aceptable, debemos igualar: e = d; y, t = T/2; recordando además que f = 1/T (donde f = frecuencia y T = período de la señal). Reemplazando en la expresión anterior y operando encontraremos que:

Vc = 2.d.f

Despejando la frecuencia y reemplazando valores tendremos que:

vale decir que para los valores dados, la máxima frecuencia admisible de grabar sería aproximadamente 8 KHz (valor hoy superado por entrehierros menores y técnicas electrónicas de compresión-expansión y reducción de ruido como el sistema Dolby). Calculemos ahora cuál sería la velocidad relativa cinta-cabezal necesaria para grabar una f = 4 MHz con un entrehierro d = 1 m:

Vc = 2.d.f = 2. 1.10-6[m]. 4.106[Hz]=8 [m/s]

Este valor resulta aproximadamente 170 veces mayor que la velocidad utilizada en audio, con lo que si se pretende grabar video, en forma longitudinal, en un casete de audio de 30 minutos por lado, solo se podría grabar unos 10,6 segundos (seguramente, además, con algunos problemas de traslado de cinta). Obviamente es un problema que se debió superar con muy buen ingenio.

Alinealidades

Como ya hemos dicho, cada partícula del material magnético depositado en la cinta constituye un imán. Estos imanes son de alta remanencia, por lo que permanecen en el mismo estado mientras no actúen sobre los mismos campos magnéticos que lleven a sus moléculas a orientarse en forma diferente. Sin embargo todo lo dicho no se cumple en forma absoluta, sino con algunas limitaciones.

La curva de la figura es la bien conocida curva de histéresis de los materiales magnéticos. El trazo entre A y B corresponde a la relación entre la excitación magnética o intensidad de campo [H] que origina la bobina y la imanación obtenida en el núcleo magnético, cuando el material es virgen. Cabría mencionar que un material totalmente virgen es difícil de encontrar por no decir imposible, dado que al menos estuvo sometido al campo terrestre.

La inducción crece al principio en forma lenta para luego hacerlo en forma casi uniforme, hasta alcanzar un punto en el que llega a la saturación. Esto es consecuencia de que todas las partículas están orientadas en la dirección impuesta por la excitación.

Ahora si disminuye la corriente aplicada a la bobina, comienza a disminuir la inducción, pero no lo hace recorriendo el mismo camino trazado en el gráfico, por el contrario, todo ocurre como si solo una parte de las moléculas volviesen al desorden primitivo y otras quedan orientadas como si aún actuara el campo de la bobina. Esto se hace mas notorio donde la excitación magnética es cero, sin embargo, la inducción conserva un valor [Br] nada despreciable. Este efecto se denomina REMANENCIA.

Es evidente que los materiales con que se construyen los imanes permanentes son de alta remanencia, el mismo concepto le caben a los materiales depositados en los soportes que se utilizan en las grabaciones de audio, video e informáticas.

Volvamos a la curva de histéresis, especialmente al tramo C – D, donde se ha invertido el sentido de la corriente y por lo tanto de la intensidad de campo, logrando así la

disminución de la inducción, hasta lograr finalmente anularla. Hemos vuelto a un núcleo totalmente desimantado, pero para ello, nos vemos en la necesidad de aplicar una corriente en sentido contrario al inicial. Este punto o valor de excitación [Hc] se denomina FUERZA COERCITIVA.

En el trazo D – E, se puede apreciar como se imana el material pero en sentido contrario, nuevamente la inducción crece hasta alcanzar el valor de saturación, por las mismas causas anteriores. Solo que ahora las moléculas se han orientado en sentido opuesto. Continuando con la evolución de la corriente de excitación, encontraremos el mismo efecto de remanencia descripto anteriormente, pero, ahora en sentido opuesto, y, seguramente si aumentamos ahora la corriente, lograremos un punto donde se requiere una fuerza coercitiva para anular el campo, tramos E – F y F – G. El lazo se cierra con el tramo G – H, donde se obtiene nuevamente la saturación en sentido positivo.

Como se puede observar, el camino que ha tomado la última magnetización, es totalmente distinto al inicial que correspondía al material virgen.

De este estudio surgen cuestiones importantes. El lazo de histéresis es variable de acuerdo con el material. Si se trata de un hierro dulce ideal, sin remanencia - tal como convendría para una inductancia con núcleo de hierro (Cabezal de grabación-reproducción) o un transformador en general - el lazo se transforma en una simple curva en forma de "S". Por el contrario si se desea que el material retenga la mayor remanencia posible, para obtener un imán permanente, el lazo debe transformarse en un rectángulo. Entre estos dos casos ideales se encuentran todos los materiales.

Es sencillo dilucidar que los materiales empleados para la construcción de cabezales deben encontrarse entre los de remanencia nula, dado que si este fenómeno ocurriera

borraría lo previamente grabado. En la actualidad se está utilizando un material llamado PERMALLOY, para la construcción de cabezales de audio, cuya característica tiene una forma muy próxima a la "S" pero, una dureza capaz de soportar el continuo desplazamiento de la cinta frente a él, sin mayor desgaste.

En cuanto a los materiales usados para depositar sobre las cintas deben ser de elevada remanencia de manera que este magnetismo remanente actúe en cierta medida como una memoria. Algunos de los materiales empleados muy comunes son: Oxido de hierro (FeO), dióxido férrico (Fe2O3), etcétera.

Teniendo en cuenta que durante la grabación la amplitud es variable, encontraremos dos posibles deformaciones, una por amplitud y lógicamente saturación de los materiales y otra propia de la forma del ciclo.

La primera encuentra en la práctica fácil corrección, reduciendo la amplitud de la señal; no así la propia del ciclo que requiere de un proceso o tratamiento adicional que denominaremos PRE-MAGNETIZACIÓN.

Para la explicación de este proceso usaremos la forma más simple de ciclo de histéresis es decir el que toma forma de "S".

(t), dado que esteEn las figuras encontramos cual sería la forma del flujo es proporcional a la inducción [B] por estar vinculados por la sección del Lógicamente laB . Snúcleo que podemos suponerla una constante. [ intensidad de campo [H] es proporcional a la corriente que excita la bobina por ser [H = N.I/l]. Donde "N" número de espiras de la bobina, "I" la corriente que la circula y "l" la longitud del circuito magnético. En un cabezal definido N y l se encuentran especificados y permanecen constantes. La primera figura manifiesta cual sería la forma si no se toma ninguna precaución.

La primer solución fue sumar una componente de continua, que desplaza la señal en el eje hacia la zona lineal, de esta manera el flujo no tenía distorsión. Este procedimiento se denomina PRE-MAGNETIZACIÓN por componente continua.

La solución utilizada actualmente es sumar una radiofrecuencia (RF) a la información de audio. No se debe confundir con una modulación, dado que este proceso implica un producto de señales. La solución planeada surge del análisis efectuado para la grabación de altas frecuencias. Si el elemento básico de cinta traspone el entrehierro en un tiempo equivalente a un múltiplo de la frecuencia considerada como máxima, la magnetización resultante es nula (auto borrado), pero, si se aumenta notoriamente la frecuencia, la magnetización recibida será dependiente del valor medio de los períodos que tome de la señal. Ahora bien, si ese valor medio es variable, en función de la información según se muestra en la figura; debido a la suma de la señal de audio más la radiofrecuencia, la magnetización de la cinta será función del valor medio, que es ni más ni menos que la señal que se pretende grabar. Esta técnica es lo que se denomina PRE-MAGNETIZACIÓN o PRE-POLARIZACIÓN por RF (radiofrecuencia). La ventaja de esta metodología es que mejora notablemente la relación señal-ruido. En audio, el valor de la radiofrecuencia utilizada varía entre 45 y 75 KHz estos valores son adoptados para evitar batidos (mezcla de la señal de audio con la RF), que producirían interferencias en forma de silbidos molestos.

Comentarios: Habitualmente en un grabador de audio se utiliza la misma señal para el cabezal de borrado. El efecto del borrado consiste en orientar las partículas en un único sentido. Algunos radio-grabadores tienen un selector (llave exterior) con la denominación "BEAT", que cambia la frecuencia del oscilador de pre-magnetización cuando se nota el silbido en la grabación directa desde la radio.

Soluciones para la grabación de una señal de video

La pre-magnetización permite grabar señales con menos distorsión, más rendimiento y mejor relación señal ruido. Hemos tratado este sistema, muy ingenioso por cierto, que junto a una ecualización adecuada permite compensar los problemas de linealidad en audio. En la grabación de la señal de video surgen otros problemas:

o No es practicable una ecualización por intermedio de filtros de compensación. Todos los que trabajan en TV color y conocen la importancia del ancho de banda en la señal de luminancia, que como es sabido abarca varias décadas (aproximadamente, de 40 Hz a 4 MHz);

o No se puede grabar frecuencia cero, es decir continua, esto acarrea el problema de no poder registrar el valor promedio del brillo de la escena;

o En cuanto a la pre-polarización; en audio, es recomendable usar una RF aproximadamente cinco veces mayor que la frecuencia máxima a grabar, si queremos hacer lo mismo en video, tendríamos que adoptar valores de unos 20 MHz (como mínimo);

o Los cabezales, para lograr una buena respuesta en altas frecuencias se deben construir con ferrite, este material tiene una buena respuesta en alta frecuencia, pero muy pobre en bajas

o Se presentan además otras dificultades, debido la complejidad de la señal de video cromática compuesta, que dejaremos de lado en este momento.

Por todo lo expuesto no es posible grabar video en forma directa. La solución fue, grabar el video modulado en frecuencia (en forma indirecta), con las consecuentes ganancias.

o En primer lugar debíamos contar con un oscilador para pre-polarización, ahora, a éste oscilador se lo modula en frecuencia en forma muy simple, conformando un VCO (oscilador controlado por tensión).

o El margen de frecuencias o desviación del VCO, depende de la amplitud de la señal modulante (información de video) y no de los valores de frecuencia de ésta.

o No es necesaria la pre-magnetización, en FM, no tiene importancia la forma de la portadora, sí, sus variaciones de frecuencia o período.

o En FM, no tienen importancia las variaciones de amplitud, no interesa que la transferencia sea lineal.

o A título de referencia, se utiliza también esta señal de FM como pre-polarización para grabar la señal de color que se graba en forma directa.

Como se menciona en uno de los ítem, la desviación de frecuencia depende de la amplitud de la señal de luminancia y los valores límites adoptados para nuestra norma PAL N son: 3,4 MHz en el pico de sincronismo, correspondiendo al ultranegro y, 4,4 MHz para los picos de blanco.

Fácilmente podemos deducir que el valor promedio de brillo corresponde a la frecuencia portadora sin modular.

Volviendo al punto anterior, es importante saber que, como en cualquier sistema de modulación se originan bandas laterales, pero que podemos limitar en el extremo inferior en 1,2 MHz y en el extremo superior en 6 MHz mediante las trampas adecuadas. Si bien los límites, matemáticamente se extenderían hasta el infinito según la función de BESSEL que define la señal modulada en frecuencia. Estos valores representan el margen de frecuencias que se debe ecualizar y su relación resulta 5 (cinco), mucho menor que la relación de frecuencias entre límites de la señal de luminancia que supera los 100000. Gráficamente podemos representar la distribución de información en un espectro, de la información a registrar, como se muestra en la figura.

En cuanto al registro de la señal de color, como se mencionó anteriormente, se graba en forma directa. En primer lugar mediante los filtros adecuados es separada la señal de color de la señal de luminancia, los filtros no requieren características especiales dado que se trata de espectros bien definidos y son equivalentes a los utilizados en los televisores color para separar las mismas informaciones; posteriormente se realiza un desplazamiento del espectro (cambio de la frecuencia subportadora) desde los 3,58 MHz a 620 KHz (aproximadamente), pero, manteniendo sus características originales es decir, una señal de AM doble banda lateral (simétrica) con portadora suprimida.

La nueva frecuencia esta centrada entre los 627 y 629 KHz, la frecuencia exacta depende del sistema y la Norma. Un concepto importante a tener en cuenta para la adopción de ese valor es: todos los sistemas de televisión color utilizan los espacios entre múltiplos impares de la mitad de la frecuencia horizontal para ubicar el espectro de la señal de color lo que se denomina habitualmente entrelazado de espectros.

Nota: en los equipos (VCR) no profesionales se sacrifica algo de respuesta en frecuencia, tanto en la señal de luminancia (Y) como en la señal se color, esto forma parte de las limitaciones admisibles, de lo contrario, se deberían adoptar soluciones mas complejas. La respuesta en frecuencia de señal de luminancia se limita a 2,5 MHz y la señal de color a 500 KHz. Disminuciones bien toleradas dentro de una buena calidad de imagen.

Como culminación faltaría decir que en la cinta se graban también:

o la señal de audio, en forma longitudinal en la forma convencional (directa) tal cual lo efectúa cualquier grabador de audio y,

o una pista denominada de control (control track), que permite asegurar el seguimiento de las pistas impresas, siendo ésta una de las informaciones necesarias para el sistema electrónico de control.

Resumen: En este documento se tratan los principios generales de la grabación en soporte magnético de audio y/o video. También se presentan las soluciones adoptadas para compensar las alinealidades, los problemas de velocidad relativa cinta cabezal y lograr una adecuada respuesta en frecuencia.

TECNICAS DE FABRICACION DE LOS CIRCUITOS INTEGRADOS

Hasta ahora hemos estudiado circuitos discretos. La palabra discretos quiere decir separados o distintos. Y se refiere al uso de transistores y resistores separados en la construcción de circuitos. Un circuito discreto es aquel en el cual todos los componentes se han soldado o conectado mecánicamente en alguna otra forma.

La invención del circuito integrado (CI) en la década de los 60 fue un descubrimiento muy importante ya que supero la necesidad de conectar mecánicamente los componentes discretos. Para empezar, un CI es un dispositivo que cuenta con sus propios transistores y resistores. Estos componentes internos no son discretos, sino que están integrados. Esto significa que se producen y conectan durante el mismo proceso de fabricación. El producto final, ya sea un amplificador multietapa o un circuito de conmutación, puede llevar a cabo una función completa. Debido a que sus componentes integrados son microscópicamente pequeños, un fabricante puede colocar cientos de ellos en el espacio que ocupa un simple transistor discreto.

Uno de los primeros CI que se fabricaron fue el amplificador operacional (amp op.). Un amplificador operacional característico es un amplificador de cd de alta ganancia que opera desde los 0 HZ hasta 1MHZ. Un amp op Ci es como una caja negra mágica con terminales externas o puntos para conexión. Al conectar esas terminales de conexión con voltajes de alimentación, generadores de señal y resistencias de carga, se puede construir de manera fácil y rápida un amplificador optimo. El truco es, sin embargo, saber que terminales se conectan y conque. También ayuda conocer un poco lo que hay

adentro de la caja negra, porque entonces se estará en una mejor posición al detectar fallas, analizar o diseñar circuitos con CI.

CIRCUITOS INTEGRADOS

Alguna vez, los amplificadores operaciones se construyeron como circuitos discretos. El termino de amplificador operacional se refiere a un amplificador que lleva una operación matemática. Históricamente, los primeros se usaron en computadoras analógicas, donde ejecutaban operaciones matemáticas tales como integración y diferenciación.

Actualmente, la mayoría de los amplificadores operacionales se producen como circuitos integrados. Antes de estudiar los circuitos de amplificadores operacionales y otros temas afines, demos un breve vistazo a la forma en que se construyen los circuitos integrados bipolares. El proceso que se describe acontinuacion es una de las formas de las muchas que hay. Lo único que se necesita es la idea general de cómo se produce un CI. Este sencillo conocimiento hará más fácil entender ideas mas avanzadas acerca delos amplificadores operacionales.

IDEA BASICA

En primer lugar, un fabricante produce un cristal p de varias pulgadas de largo.

Este se corta en varia obleas delgadas como se ve en la siguiente figura.

Un lado de la oblea se reviste de un aislante y se pule para dejarla libre de asperezas. A la oblea se le llama sustrato p; y es el que se usara como chasis de de los componentes integrados. A continuación, las obleas se colocan en un horno. Aquí se hace circular por encima de ellas una mezcla de gas de átomos de silicio y átomos pentavalentes. Esto forma una capa delgada de semiconductor tipo n en la superficie caliente del sustrato en la siguiente figura.

Se le llama a esta capa epitaxial. Como se ve en la figura pasada, la capa epitaxial tiene un espesor de aproximadamente de 0.1 a 1 mil.

Para evitar que la capa epitaxial se contamine, se sopla sobre la superficie oxigeno puro. Los átomos de oxigeno se combinan con los de silicio, para formar una capa de dióxido de silicio (SiO2) en la superficie como se muestra en la siguiente figura.

Esta capa precidida al vidrio de SiO2 sella la superficie y evita reacciones químicas posteriores. El sellado de la superficie se conoce como pasivacion. La oblea a continuación se corta en áreas rectangulares como se ve en la siguiente figura.

Cada una de estas áreas se convertirá en un chip. Pero antes de que la oblea se corte, el fabricante producirá cientos de circuitos en ella, uno en cada área de la figura anterior. Esta producción en masa es la razón del bajo costo de los circuitos integrados.

La forma en que sé horma un transistor integrado es la siguiente. Una sección del SiO2 se desprende, quedando expuesta parte de la capa epitaxial de la siguiente figura.

Fig. a)

La oblea entonces se coloca en un horno donde átomos trivalentes se difunden en la capa epitaxial. La concentración de átomos trivalentes es suficiente para transformar la capa epitaxial expuesta de material p en material n. Por consiguiente, se tiene una isla de material n bajo la capa de SiO2 de la siguiente figura.

Fig. b)

Se vuelve a soplar otra vez oxigeno para formar la capa completa de SiO2 mostrada en la siguiente figura.

Fig c)

Un hueco se forma a continuación en la capa de SiO2, quedando expuesta la capa epitaxial n ver la siguiente figura.

Fig d)

Al hueco en la capa de SiO2 se le denomina ventana. La capa que se mira a a través de la ventana será el colector del transistor. Para formar la base, se pasan átomos trivalentes a través de la ventana; esas impurezas se difunden en la capa epitaxial y forman una isla de material tipo p ver la siguiente figura.

Fig. e)

Se vuelve a formar una capa de SiO2 pasando oxigeno sobre la oblea ver siguiente figura.

Fig. f)

Para formar el emisor, se forma una ventana en la capa de SiO2, quedando expuesta una isla de material tipo p ver la siguiente figura.

Fig. g)

Difundiendo átomos pentavalentes en la isla p, se puede formar la pequeña isla n de la siguiente figura.

Fig. h)

Entonces Se sella la estructura soplando oxigeno sobre la oblea ver la siguiente figura.

Fig. i)

Durante el grabado de las ventanas en la capa de SiO2 se puede depositar metal para hacer los contactos eléctricos con el emisor, base y colector. Esto nos da el transistor integrado de la siguiente figura.

Fig. j)

Para obtener un diodo, se siguen los mismos pasos hasta el punto en el cual se ha formado una isla p y se ha sellado ver la figura f. Entonces, se forman ventanas para exponer las islas p y n. Depositando metal a través de esas ventanas, se hace contacto eléctrico con el cátodo y el ánodo del diodo integrado ver la siguiente figura.

Fig. k)

Mediante la apertura de las ventanas arriba de la isla p de la figura f, se puede hacer contacto metálico con esta isla para obtener un resistor integrado ver la siguiente figura.

Fig. l)

Los transistores, diodos y resistores son fáciles de fabricar en un chip. Por esta razón, casi todos los circuitos integrados utilizan esos componentes. No es practico integrar en un chip inductores ni capacitores grandes.

UN EJEMPLO SIMPLE

Para Darnos una idea de cómo se produce un circuito, examine el circuito simple de tres componentes de la siguiente figura.

Fig. m)

Al fabricarlo, nos gustaría producir simultáneamente cientos de ellos en una oblea.Cada área del chip deberá parecerse a la de la figura siguiente.

Fig. n)

El diodo y el resistor se formarían como se menciono anteriormente. En un paso posterior, el emisor del transistor. A continuación se abrirían las ventanas y se depositaria metal para conectar el diodo, el transistor y el resistor, como se muestra en la figura n.

Sin considerar lo complicado que puede ser un circuito, su fabricación consiste principalmente de apertura de ventanas, formación de islas p y n y conexión de los componentes integrados. El sustrato p aísla dichos componentes uno de otro. En la figura n, hay capas de empobrecimiento entre el sustrato p y las tres islas n adyacentes. Como esencialmente las capas de empobrecimiento no tienen portadores de corriente, los componentes integrados se aíslan uno del otro. Este tipo de aislamiento se conoce como aislamiento de capa de empobrecimiento.

TIPOS DE CIRCUITOS INTEGRADOS

Los circuitos integrados descritos se llaman CI monolíticos. La palabra monolitico viene del griego y significa “una piedra”. La palabra es apropiada por que los componentes son parte de un chip. El CI monolítico es el tipo más común de circuito integrado. Ya que desde su invención, los fabricantes han estado produciendo los CI monolíticos para llevar a cabo todo tipo de funciones. Los tipos comercialmente disponibles se pueden utilizar como amplificadores, reguladores de voltaje, conmutadores, receptores de AM, circuitos de televisión y circuitos de computadora. Pero los CI monolíticos tienen limitantes de potencia. Ya que la mayoría de ellos son del tamaño de un transistor discreto de señal pequeña, generalmente tienen un índice de máxima potencia menor que 1 W. Esto limita su uso a aplicaciones de poca potencia.

Cuando se requiere potencia mas alta, se pueden utilizar CI de película delgada y película gruesa. Estos dispositivos son más grandes que los CI monolíticos pero más pequeños que los circuitos discretos. Con CI de película delgada o gruesa, los componentes pasivos como resistores y capacitores están integrados, pero los transistores y diodos se conectan como componentes discretos para formar un circuito completo. Por eso, los circuitos de película delgada y gruesa disponibles comercialmente son combinaciones de componentes integrados y discretos.

Otro CI popular, utilizado en aplicaciones de potencia alta, es el Ci híbrido. Los CI híbridos combinan dos o más CI monolíticos en un solo empaque o combinan CI monolíticos con circuitos de película delgada o gruesa. Los CI híbridos son ampliamente usados en aplicaciones de audio en potencia alta, de 5 W a mas de 50 W.

NIVELES DE INTEGRACIÓN

La figura n es un ejemplo de integración a baja escala (SSI), en donde solo unos cuantos componentes se han integrado para formar un circuito completo. Como guía, SSI se refiere a los CI con menos de 12 componentes integrados. La mayoría de los chips SSI utilizan resistores, diodos y transistores bipolares integrados.

La integración a media escala (MSI) se refiere a los CI que tienen de 12 a 100 componentes integrados por chip. Transistores bipolares o transistores MOS (MOSFET en modo de enriquecimiento) se pueden emplear como transistores integrados de un CI. De nueva cuenta, la mayoría de los chips MSI utilizan componentes bipolares.

La integración a gran escala (LSI) se refiere a CI con mas de cien componentes. Ya que toma pocos pasos hacer un transistor MOS integrado, un fabricante puede producir mas de estos en un chip en vez de transistores bipolares. Por esta razón, la mayoría de los chips LSI son de tipo MOS. Hoy en día las computadoras personales usan chips LSI con miles de transistores MO.

METODO DE TIRAMIENTO

Este Método consiste simplemente en introducir durante el tiramiento de un cristal una determinada impureza. Se pueden también introducir dos impurezas de diferente tipo, por ejemplo arsénico (tipo N) y galio (Tipo P) que tienen coeficientes de segregación diferentes; haciendo variar simplemente la velocidad, se podrá tener una región P o una región N.

METODO DE ALEACIÓN

Este método consiste esencialmente en fundir sobre un semiconductor una impureza de tipo P o de tipo N. Si, por ejemplo, se hace fundir sobre una placa de germanio del tipo N, calentada a 500 °C, una cierta cantidad de indio, este ultimo se funde, el germanio se disuelve y las fases liquidas penetran en la placa paralelamente a las superficies, hasta que la solución se satura, es decir, a una profundidad que depende del peso del indio, del área en contacto y de la temperatura alcanzada, obteniéndose así una región P.

METODO DE DIFUSIÓN

Este método consiste en difundir un vapor de tipo N o P sobre un monocristal de un semiconductor determinado que contenga ya una impureza del tipo contrario a la que se hace difundir.

Por ejemplo, si se coloca una placa de germanio de tipo N dentro de un recipiente en el cual circula vapor de indio, se puede obtener una unión P-N por difusión de los átomos de indio a través de la superficie de la placa de germanio, mayor será la penetración del indio; por ejemplo, a 570 °C se puede tener una penetración de de 80 A en 100 seg. Y a 870°C se obtiene una penetración de de 8000 A en el mismo tiempo.

METODO EPITAXIAL

Tomando el caso del germanio, este método consiste en evaporar dentro de una atmósfera gaseosa yoduro de germanio (Gel2) y alguna impureza sobre un monocristal de tipo P o tipo N. El yoduro de germanio se descompone sobre el monocristal de germanio según la reacción reversible:

Gel2 Gel4 + Ge.

Evaporando en forma simultanea Gel2 y la impureza sobre el monocristalcalentado a una temperatura dada, se puede obtener una unión. La mayor ventaja de este método es que permite la obtención de regiones muy delgadas de pureza controlada. Se puede emplear en combinación con otras técnicas (de difusión y de aleación) para construir transistores con aplicaciones en ultra alta frecuencia y circuitos integrados.

METODO DE EVAPORACIÓN EN VACIO

Este Esun método que aun se encuentra que aun se encuentra en la etapa experimental, pero con el cual ya se han principiado a obtener resultados muy interesantes.

En términos generales, este método consiste en evaporar en vacío sobre un monocristal de algún otro semiconductor una cierta cantidad del mismo material, junto con alguna impureza.

La cristalización y las propiedades eléctricas de los diodos obtenidos por este método dependen principalmente de la velocidad de evaporación, de la temperatura del monocristal de base, de las condiciones superficiales de la base y de la presión que se tenga en el recinto en que se efectúa la operación.

CONCLUSIONES PERSONALES

Son impresionantes las técnicas de fabricación de semiconductores que se realizan hasta para los circuitos integrados, ya que los tenemos en baja, mediana y alta escala de integración, sin la existencia de los circuitos integrados fuera imposible, ver los mini radios, las computadoras Lap tops, y toda clase de aparatos electrónicos, sin la existencia de estos circuitos integrados todos los equipos electrónicos fueran grandes.

BIBLIOGRAFÍA:

Principios de electrónica

Autor: Malvino

Cuarta ed.

Tercera edición en español

Editorial: McGraw-Hill

TIPO p

SUSTRATO p

5 mils

n

SUSTRATO p

CAPA EPITAXIAL

0.1 a 1 mil

CAPA DE SiO2

n

SUSTRATO p

Chips en una oblea

n

SUTRATO p

EXPUESTO

n

SUSTRATO p

SUSTRATO p

n

SUSTRATO p

n

COLECTOR

SUSTRATO p

SUSTRATO p

n

p

BASE

SUSTRATO p

n

p

SUSTRATO p

n

p

SUSTRATO p

n

p

n

EMISOR

SUSTRATO p

n

p

n

SUSTRATO p

n

p

n

E B C

SUSTRATO p

n

p

ANODO

CATODO

SUSTRATO p

n

p

RESISTOR

SUSTRATO p

n

n

n

p

p

p

n

DIODO

TRANSISTOR

RESISTOR

In

Ge

+++++ -------

++ --

N +++++ ------- P

++ --

+++++ -------