ancho de banda

13
Ancho de banda Para otros usos de este término, véase Ancho de banda (informática). Para señales analógicas, el ancho de banda es la longitud, medida en hercios (Hz), del rango de frecuencias en el que se concentra la mayor parte de la potencia de la señal. Puede ser calculado a partir de una señal temporal mediante el análisis de Fourier. También son llamadas frecuencias efectivas las pertenecientes a este rango. Figura 1.- El ancho de banda viene determinado por las frecuencias comprendidas entre f 1 y f2. Así, el ancho de banda de un filtro es la diferencia entre las frecuencias en las que su atenuación al pasar a través de filtro se mantiene igual o inferior a 3 dB comparada con la frecuencia central de pico (f c ) en la Figura 1. La frecuencia es la magnitud física que mide las veces por unidad de tiempo en que se repite un ciclo de una señal periódica. Una señal periódica de una sola frecuencia tiene un ancho de banda mínimo. En general, si la señal periódica tiene componentes en varias frecuencias, su ancho de banda es mayor, y su variación temporal depende de sus componentes frecuenciales. Normalmente las señales generadas en los sistemas electrónicos, ya sean datos informáticos, voz, señales de televisión, etc., son señales que varían en el tiempo y no son periódicas, pero se pueden caracterizar como la suma de muchas señales periódicas de diferentes frecuencias. [editar]Uso común Es común denominar ancho de banda digital no solo es digital si no tambien es un ancho de banda estabilizadora que sirve para exigir informacion de un servidor a otro y y es la velocidad que tarda en pedirla procesarla y analizarla ose es el tiempo que tarda entre una linea entre otra al pedir informacion de una pc a un servidor a la cantidad de datos que se pueden transmitir en una unidad de tiempo. Por ejemplo, una línea ADSL de 256 kbps (256 kbit/s) puede, teóricamente, enviar 256 000 bits (no bytes) por segundo. Esto es en realidad la tasa de transferencia máxima permitida por

Upload: francisco-lugo

Post on 08-Aug-2015

146 views

Category:

Documents


1 download

TRANSCRIPT

Page 1: Ancho de Banda

Ancho de banda Para otros usos de este término, véase Ancho de banda (informática).

Para señales analógicas, el ancho de banda es la longitud, medida en hercios (Hz), del rango de

frecuencias en el que se concentra la mayor parte de la potencia de la señal. Puede ser calculado a

partir de una señal temporal mediante el análisis de Fourier. También son llamadas frecuencias

efectivas las pertenecientes a este rango.

Figura 1.- El ancho de banda viene determinado por las frecuencias comprendidas entre f1 y f2.

Así, el ancho de banda de un filtro es la diferencia entre las frecuencias en las que su atenuación al

pasar a través de filtro se mantiene igual o inferior a 3 dB comparada con la frecuencia central de

pico (fc) en la Figura 1.

La frecuencia es la magnitud física que mide las veces por unidad de tiempo en que se repite un

ciclo de una señal periódica. Una señal periódica de una sola frecuencia tiene un ancho de banda

mínimo. En general, si la señal periódica tiene componentes en varias frecuencias, su ancho de

banda es mayor, y su variación temporal depende de sus componentes frecuenciales.

Normalmente las señales generadas en los sistemas electrónicos, ya sean datos informáticos, voz,

señales de televisión, etc., son señales que varían en el tiempo y no son periódicas, pero se pueden

caracterizar como la suma de muchas señales periódicas de diferentes frecuencias.

[editar]Uso común

Es común denominar ancho de banda digital no solo es digital si no tambien es un ancho de banda

estabilizadora que sirve para exigir informacion de un servidor a otro y y es la velocidad que tarda en

pedirla procesarla y analizarla ose es el tiempo que tarda entre una linea entre otra al pedir

informacion de una pc a un servidor a la cantidad de datos que se pueden transmitir en una unidad

de tiempo. Por ejemplo, una línea ADSL de 256 kbps (256 kbit/s) puede, teóricamente, enviar 256

000 bits (no bytes) por segundo. Esto es en realidad la tasa de transferencia máxima permitida por

Page 2: Ancho de Banda

el sistema, que depende del ancho de banda analógico, de la potencia de la señal, de la potencia de

ruido y de la codificación de canal.

Un gráfico de la magnitud de ganancia de banda de un filtro, ilustrando el concepto de un ancho de banda de -3

dB a una ganancia de 0,707. Los ejes de frecuencia en el diagrama pueden ser a escala linear o logaritmica.

Un ejemplo de banda estrecha es la realizada a través de una conexión telefónica, y un ejemplo

de banda ancha es la que se realiza por medio de una

conexión DSL, microondas, cablemódem o T1. Cada tipo de conexión tiene su propio ancho de

banda analógico y su tasa de transferencia máxima. El ancho de banda y la saturación redil son dos

factores que influyen directamente sobre la calidad de los enlaces.

El rango de frecuencia que deja a un canal pasar satisfactoriamente se expresa en Hz.

Bw=∆f=fcs (frecuencia de corte superior) – fci (frecuencia de corte inferior)

También suele usarse el término ancho de banda de un bus de ordenador para referirse a la

velocidad a la que se transfieren los datos por ese bus (véase Front-side bus), suele expresarse en

bytes por segundo (B/s), megabytes por segundo (MB/s) o gigabytes por segundo (GB/s).

Se calcula multiplicando la frecuencia de trabajo del bus, en ciclos por segundo por el número de

bytes que se transfieren en cada ciclo.

Por ejemplo, un bus que transmite 64 bits de datos a 266 MHz tendrá un ancho de banda de 2,1

GB/s.

Algunas veces se transmite más de un bit en cada ciclo de reloj, en este caso se multiplicará el

número de bits por la cantidad de transferencias que se realizan en cada ciclo (MT/s).

Comúnmente, el ancho de banda que no es otra cosa que un conjunto de frecuencias consecutivas,

es confundido al ser utilizado en líneas de transmisión digitales, donde es utilizado para indicar

régimen binario o caudal que es capaz de soportar la línea.

Page 3: Ancho de Banda

Velocidad binaria o velocidad de transmisión Velocidad de transmisión al número de dígitos binarios transmitidos en la unidad de tiempo, la

velocidad binaria de transmisión se mede en (bps),carece de sentidos por que la separación entre

caracteres puede ser variable: utilizar solamente la noción de velocidad de modulación.

Para un solo canal que transmite en modo serie la expresión

Vt= 1 / t x log2 n

Vtd= números de bits transmitidos/ tiempo empleado

Se llama velocidad real de transferencia de datos al promedio de bits por unidad de tiempo.

Et= Vrtd/ Vtd

Teorema de Shannon-Hartley

En teoría de la información, el teorema de Shannon-Hartley es una aplicación del teorema de

codificación para canales con ruido. Un caso muy frecuente es el de un canal de

comunicaciónanalógico continuo en el tiempo que presenta un ruido gausiano.

El teorema establece la capacidad del canal de Shannon, una cota superior que establece la

máxima cantidad de datos digitales que pueden ser transmitidos sin error (esto es, información)

sobre dicho enlace de comunicaciones con un ancho de banda específico y que está sometido a la

presencia de la interferencia del ruido.

En las hipótesis de partida, para la correcta aplicación del teorema, se asume una limitación en la

potencia de la señal y, además, que el proceso del ruido gausiano es caracterizado por una potencia

conocida o una densidad espectral de potencia.

La ley debe su nombre a Claude Shannon y Ralph Hartley.

Declaración del teorema

Considerando todas las posibles técnicas de codificación de niveles múltiples y polifásicas, el

teorema de Shannon-Hartley indica que la capacidad del canal C es:1

donde:

es el ancho de banda del canal.

Page 4: Ancho de Banda

es la capacidad del canal (tasa de bits de información bit/s)

es la potencia de la señal útil, que puede estar expresada en vatios, milivatios, etc., (W, mW,

etc.)

es la potencia del ruido presente en el canal, (mW, W, etc.) que trata de enmascarar a la

señal útil.

[editar]Desarrollo histórico

A finales de los años 20, Harry Nyquist y Ralph Hartley desarrollaron una serie de ideas

fundamentales relacionadas con la transmisión de la información, de manera particular, en el

contexto del telégrafo como sistema de comunicaciones. En aquellos años, estos conceptos

eran avances de gran alcance de carácter individual, pero no formaban parte del corpus de una

teoría exhaustiva.

Fue en los años 40, cuando Claude Shannon desarrolló el concepto de capacidad de un canal

basándose, en parte, en las ideas que ya habían propuesto Nyquist y Hartley y formulando,

después, una teoría completa sobre la información y la transmisión de esta, a través de

canales.

[editar]Tasa de Nyquist

En 1927, Nyquist determinó que el número de pulsos independientes que podían pasar a

través de un canal de telégrafo, por unidad de tiempo, estaba limitado a dos veces el ancho de

banda del canal.

donde es la frecuencia del pulso (en pulsos por segundo) y es el ancho de banda

(en hercios). La cantidad se llamó, más adelante, tasa de Nyquist, y transmitiendo a esta

tasa de pulsos límite de pulsos por segundo se le denominó señalización a la tasa de

Nyquist.

Nyquist publicó sus resultados en 1928 como parte de su artículo "Certain topics in Telegraph

Transmission Theory".

[editar]Ley de Hartley

Durante ese mismo año, Hartley formuló una manera de cuantificar la información y su tasa de

transmisión a través de un canal de comunicaciones. Este método, conocido más adelante

como ley de Hartley, se convirtió en un importante precursor para la sofisticada noción de

capacidad de un canal, formulada por Shannon.

Hartley indicó que el número máximo de pulsos distintos que se pueden transmitir y recibir, de

manera fiable, sobre un canal de comunicaciones está limitado por el rango dinámico de la

amplitud de la señal y de la precisión con la cuál el receptor puede distinguir distintos niveles

de amplitud.

De manera específica, si la amplitud de la señal transmitida se restringe al rango

de , y la precisión del receptor es +/- , entonces el

número máximos de pulsos distintos M está dado por:

Page 5: Ancho de Banda

Tomando la información para ser el logaritmo del número de los mensajes distintos que podrían

ser enviados, Hartley después construyó una medida de la información proporcional al ancho

de banda del canal y a la duración de su uso. A veces sólo se habla de dicha proporcionalidad

cuando se cita a la ley de Hartley.

Posteriormente, Hartley combinó la observación de Nyquist,2 y su propia cuantificación de la

calidad o ruido de un canal en términos del número de niveles de pulso que podían ser

distinguidos, de manera fiable y denotados por , para llegar a una medida cuantitativa de la

tasa de información que se puede obtener.

La ley de Hartley se explica, cuantitativamente, de manera usual, como la tasa de información

alcanzable de bits por segundo, :

Hartley no resolvió, de manera precisa cómo el parámetro debe depender de las

estadísticas de ruido del canal, o cómo la comunicación podía ser fiable incluso cuando los

pulsos individuales correspondientes a símbolos no se pudieran distinguir, de manera fiable, de

los niveles de ; con las estadísticas del ruido gaussiano.

Los diseñadores de sistemas tienen que elegir un valor muy conservador de para alcanzar

la mínima tasa de error.

El concepto de una capacidad libre de errores aguardó hasta que Claude Shannon investigó

sobre las observaciones de Hartley con respecto a la medida logarítmica de la información y las

observaciones de Nyquist sobre el efecto de las limitaciones del ancho de banda del canal.

El resultado de la tasa de Hartley se puede ver como la capacidad de un canal sin errores

de símbolos por segundo. Algunos autores se refieren a ello como capacidad. Pero ese

supuesto canal, libre de errores, es un canal ideal, y el resultado es, necesariamente, menor

que la capacidad de Shannon de un canal con ruido de ancho de banda , que es el resultado

Hartley-Shannon que se estimó más adelante.

[editar]Teorema de codificación de canales con ruido y capacidad

El desarrollo de la teoría de la información de Claude Shannon durante la Segunda Guerra

Mundial estimuló el siguiente gran paso para entender qué cantidad de información se podría

comunicar, sin errores y de manera fiable, a través de canales con ruido gausiano de fondo.

Fundamentado sobre las ideas de Hartley, el teorema de Shannon de la codificación de

canales con ruido (1948) describe la máxima eficiencia posible de los métodos de corrección

de errores versus los niveles de interferencia de ruido y corrupción de datos. La prueba del

teorema muestra que un código corrector de errores construido aleatoriamente es,

esencialmente, igual de bueno que el mejor código posible. El teorema se prueba con la

estadística de tales códigos aleatorios.

El teorema de Shannon demuestra cómo calcular la capacidad de un canal sobre una

descripción estadística del canal y establece que, dado un canal con ruido con capacidad e

información transmitida en una tasa , entonces si

Page 6: Ancho de Banda

existe una técnica de codificación que permite que la probabilidad de error en el receptor se

haga arbitrariamente pequeña. Esto significa que, teóricamente, es posible transmitir

información casi sin error hasta un límite cercano a bits por segundo.

El inverso también es importante. Si

la probabilidad del error en el receptor se incrementa sin límite mientras se aumente la tasa. De

esta manera no se puede transmitir ninguna información útil por encima de la capacidad del

canal. El teorema no trata la situación, poco frecuente, en que la tasa y la capacidad son

iguales.

[editar]Teorema de Shannon-Hartley

El teorema de Shannon-Hartley establece cuál es la capacidad del canal, para un canal con

ancho de banda finito y una señal continua que sufre un ruido gaussiano. Conecta el resultado

de Hartley con el teorema de Shannon de la capacidad del canal en una forma que es

equivalente a especificar la en la fórmula de Hartley de la tasa de información en términos

de la relación señal/ruido, pero alcanzando fiabilidad a través de la codificación correctora de

errores, más fiable, que los niveles de pulso distinguibles.

Si existiera una cosa tal como un canal analógico con ancho de banda infinito y sin ruido, uno

podría transmitir cantidades ilimitadas de datos sin error, sobre este, por cada unidad de

tiempo. Sin embargo, los canales de comunicación reales están sujetos a las limitaciones

impuestas por el ancho de banda finito y el ruido.

Entonces, ¿cómo el ancho de banda y el ruido afectan a la tasa en la que la información puede

ser transmitida sobre un canal analógico?

Aunque parezca sorprendente, las limitaciones del ancho de banda, por si solas, no imponen

restricciones sobre la tasa máxima de información. Esto es porque sigue siendo posible, para la

señal, tomar un número infinitamente grande de valores distintos de voltaje para cada pulso de

símbolo, siendo cada nivel levemente distinto del anterior que representa a un determinado

significado o secuencia de bits. Sin embargo, si combinamos ambos factores, es decir, tanto el

ruido como las limitaciones del ancho de banda, encontramos un límite a la cantidad de

información que se puede transferir por una señal de potencia limitada, aun cuando se utilizan

técnicas de codificación de niveles múltiples.

En el canal considerado por el teorema de Shannon-Hartley, el ruido y la señal se suman. Es

decir, el receptor mide una señal que sea igual a la suma de la señal que codifica la

información deseada y una variable aleatoria continua que represente el ruido. Esta suma crea

incertidumbre en cuanto al valor de la señal original.

Si el receptor tiene cierta información sobre el proceso aleatorio que genera el ruido, se puede,

en principio, recuperar la información de la señal original considerando todos los posibles

estados del proceso del ruido. En el caso del teorema de Shannon-Hartley, se asume que el

ruido es generado por un proceso gaussiano con una varianza conocida. Puesto que la

varianza del proceso gaussiano es equivalente a su potencia, normalmente se llama a esta

varianza la potencia de ruido.

Tal canal es llamado canal aditivo del ruido blanco gaussiano, porque el ruido gaussiano es

añadido a la señal; blanco significa igual cantidad de ruido en todas las frecuencias dentro del

ancho de banda del canal.3

Page 7: Ancho de Banda

[editar]Implicaciones del teorema

[editar]Comparación de la capacidad de Shannon con la ley de Hartley

Comparando la capacidad del canal con la tasa de información de la ley de Hartley, podemos

encontrar el número eficaz de los niveles distinguibles :

La raíz cuadrada convierte con eficacia el cociente de potencias de nuevo en un cociente de

voltaje, así que el número de niveles es aproximadamente proporcional al cociente entre el

valor de la raíz cuadrada media de la amplitud de la señal y la desviación estándar del ruido.

Esta semejanza entre la capacidad de Shannon y la ley de Hartley no se debe interpretar

como niveles de pulsos pueden enviarse literalmente sin ninguna confusión. Se necesitan

más niveles, para permitir codificación redundante y la corrección de errores, pero la tasa de

datos neta que puede acercarse con la codificación es equivalente a usar en la ley de

Hartley.

[editar]Formas alternativas

[editar]Caso dependiente de la frecuencia (ruido de color)

En la versión simple de arriba, la señal y el ruido están completamente incorreladas, y en ese

caso es la potencia total de la señal y del ruido recibidos juntos. Una generallización

de la ecuación antedicha para el caso donde el ruido adicional no es blanco (es decir, la

relación S/N no es constante con la frecuencia sobre el ancho de banda) como muchos canales

estrechos independientes y gaussianos en paralelo:

donde:

es la capacidad del canal en bits por segundo

es el ancho de banda del canal en Hz

es el espectro de potencia de la señal

es el espectro de potencia del ruido

es la frecuencia en Hz

Nota: el teorema se aplica solamente a los ruidos que son procesos gaussianos estacionarios.

La manera en que esta fórmula introduce el ruido dependiente de la frecuencia no sirve para

describir todos los procesos del ruido continuo en el tiempo. Por ejemplo, consideremos un

proceso del ruido que consista en sumar una onda aleatoria cuya amplitud sea 1 o -1 en

cualquier momento del tiempo, y un canal que añada dicha onda a la señal original. Los

Page 8: Ancho de Banda

componentes de la frecuencia de la onda son altamente dependientes. Aunque tal ruido puede

tener una alta potencia, es bastante fácil transmitir una señal continua con mucha menos

potencia que la necesaria si el ruido subyacente fuera una suma de los ruidos independientes

de cada banda de frecuencia.

[editar]Aproximaciones

Para las relaciones señal/ruido grandes o pequeños y constantes, la fórmula de la capacidad

puede ser aproximada:

Si , entonces

donde

De manera análoga, si , entonces

En esta baja aproximación de SNR (signal to noise ratio, relación señal a ruido), la capacidad

es independiente del ancho de banda si el ruido es blanco, la densidad espectral de dicho ruido

es vatios por hercio, (W/Hz). En este caso el total de la potencia del ruido es .

[editar]Ejemplos numéricos

Si el SNR es 20 dB, y el ancho de banda disponible es 4 kHz, apropiada para las

comunicaciones telefónicas,

entonces kbit/s. Obsérvese que el

valor es equivalente al SNR de 20 dB.

Si se requiere transmitir en 50 kbit/s, y el ancho de banda usado es 1 MHz, entonces la mínima

relación S/N requerida está dada

por de forma

que correspondiente a un SNR de -14.5 dB. Esto

demuestra que es posible transmitir con señales que son mucho más débiles que el nivel de

ruido de fondo como en las comunicaciones de espectro ensanchado.

Page 9: Ancho de Banda

Ruido blanco

Ejemplo de la forma de onda de un ruido blanco.

Densidad espectral de potencia (PSD) del ruido blanco estimada con el método de Welch. Eje de las ordenadas

(y): potencia/frecuencia (dB/Hz); eje de las abscisas (x): frecuencia (KHz).

El ruido blanco o sonido blanco es una señal aleatoria (proceso estocástico) que se caracteriza

por el hecho de que sus valores de señal en dos tiempos diferentes no

guardan correlación estadística. Como consecuencia de ello, su densidad espectral de

potencia (PSD, siglas en inglés de power spectral density) es una constante, es decir, su gráfica es

plana.1 Esto significa que la señal contiene todas lasfrecuencias y todas ellas muestran la misma

potencia. Igual fenómeno ocurre con la luz blanca, de allí la denominación.

Si la PSD no es plana, entonces se dice que el ruido está "coloreado" (correlacionado). Según la

forma que tenga la gráfica de la PSD del ruido, se definen diferentes colores.

Definición matemática

Page 10: Ancho de Banda

La autocorrelación de cualquier proceso estocástico blanco es una delta.

Densidad espectral de potencia del ruido blanco. La PSD de cualquier proceso estocástico blanco es una

constante. Eje de las ordenadas (y): densidad espectral de potencia (PSD) (W/Hz/muestra); eje de las abscisas

(x): frecuencia discreta normalizada (f = ω/2π).

El ruido blanco es un caso particular de proceso estocástico WSS en el cual las variables

aleatorias que lo forman no están correlacionadas. Es decir, si se tiene un proceso

estocástico WSS (lo supondremos de tiempo discreto y real, de manera equivalente

para procesos de tiempo continuo), debe ocurrir entonces que:

Page 11: Ancho de Banda

Si, en lugar de tener la distribución de probabilidad del proceso, lo que tenemos es una

realización temporal del mismo en forma de vector columna (lo más usual), entonces las

ecuaciones anteriores se expresarán normalmente en forma matricial

Como el proceso no está correlacionado, su función de autocorrelación es una delta y

su densidad espectral de potencia (PSD, Power Spectral Density) es una constante

Como la PSD es constante, la señal no está limitada en banda y su potencia es -teóricamente-

infinita. En la práctica, se considera que una señal es blanca si su PSD es constante en la

banda de frecuencia de interés en la aplicación. Por ejemplo, si se trata de una aplicación de

audio, el ruido será blanco si su espectro es plano entre 20 Hz y 20 KHz, que es la banda de

frecuencia que resulta audible para el oído humano.

En cualquier proceso estocástico existen siempre dos componentes:

una componente innovadora, que no se puede predecir mediante predicción lineal y que

representa la entropía, la incertidumbre, el caos, lo que no se puede predecir de ninguna

manera;

una componente redundante que es posible predecir y, por tanto, eliminar (en esto se basan

las técnicas de compresión sin pérdidas de la señal como, por ejemplo, ADPCM o, más

específicamente para señales de voz, la norma G.721).

La PSD es la transformada de Fourier de la función de autocorrelación y, como ésta es

una transformación matemática unívoca, se ve que la función de autocorrelación y la PSD

contienen básicamente la misma información acerca de una señal. Son dos formas distintas de

ver lo mismo: el grado de entropía de una señal. La entropía de una señal en este caso puede

verse como una medida de lo plano que es su espectro. De una señal cuyo espectro no sea

plano se dice que está "coloreada" (autocorrelacionada o que tiene redundancia).

El ruido blanco es un proceso completamente innovador, caótico, no tiene redundancia y, por

tanto, no puede comprimirse.

[editar]Análisis y síntesis de procesos estocásticos WSS coloreados

También se puede ver el ruido blanco como el residuo que queda después de extraer toda la

redundancia a un proceso estocástico WSS coloreado. De hecho, es posible demostrar que

todo proceso estocástico estacionario en sentido amplio (WSS, del inglés wide-sense

stationarity) se puede obtener filtrando ruido blanco con un filtro todo polos (modelo AR), con

un filtro todo ceros (modelo MA) o con un filtro de polos y ceros (modelo ARMA).

Page 12: Ancho de Banda

En el siguiente diagrama se filtra ruido blanco mediante el filtro lineal , obteniendo a la

salida el proceso coloreado (el filtro introduce correlación entre las muestras del

proceso )

Proceso estocástico WSS genérico obtenido filtrando ruido blanco con el filtro lineal H.

Haciendo predicción lineal sobre , se obtiene el filtro , que es el filtro inverso (filtro

de deconvolución) de y que permite, después de ajustar las medias de los procesos,

obtener de nuevo el proceso de ruido blanco original .

Recuperación del proceso de ruido blanco mediante el filtro blanqueador .

Estas técnicas tienen gran importancia en el procesamiento de la señal. En el filtrado

adaptativo se usan para estudiar la estabilidad de algoritmos adaptativos para filtros IIR.

En codificación de voz, el códec vocoder en ningún momento transmite las muestras de la

señal, sino un bit que decide si el fonema es sordo/sonoro y a continuación los parámetros del

modelo de predicción lineal para cada caso (filtro del diagrama). Con esta técnica se

consigue codificar la voz con tasas tan bajas como 2,4 kbps y con una calidad suficientemente

inteligible.

[editar]Aplicaciones

[editar]Procesamiento de señal

En general, el ruido blanco tiene muchas aplicaciones en procesado de señales:

Sirve para determinar la función de transferencia de cualquier sistema lineal e invariante con el

tiempo (LTI, Linear Time Invariant). Por ejemplo, en acústica arquitectónica la función de

transferencia se usa para medir el aislamiento acústico y la reverberación de la sala.

Page 13: Ancho de Banda

En síntesis de audio (música electrónica) se usa para sintetizar el sonido de instrumentos de

percusión, o los fonemas sordos: /s/, /t/, /f/, etc.

También se puede usar para mejorar las propiedades de convergencia de

ciertos algoritmos de filtrado adaptativo mediante la inyección de una pequeña señal de ruido

blanco en algún punto del sistema.

[editar]Generación de números aleatorios

El ruido blanco generado por ciertos procesos físicos naturales o artificiales se usa como base

para la generación de números aleatorios de calidad, puesto que es, como ya se ha dicho, una

fuente de entropía.

[editar]Uso en vehículos de emergencia

Algunos vehículos de emergencia lo usan debido a que es fácil distinguirlo del ruido de fondo y

no queda enmascarado por el eco, por lo que es más fácil su localización espacial.

[editar]Uso en los seres humanos

El ruido blanco puede usarse para desorientar a personas antes de un interrogatorio y como

técnica de privación sensorial.

Por otra parte, el ruido blanco de baja intensidad puede favorecer la relajación y

el sueño (véase insomnio). En tiendas especializadas pueden adquirirse discos compactos con

largas secuencias de ruido blanco, así como aparatos electromecánicos que hacen uso

del principio del ruido blanco para "enmascarar" los ruidos repentinos y molestos.

[editar]Referencias