tema 9 la señal de vídeo - unedocw.innova.uned.es/mm2/tm/contenidos/pdf/tema9.pdfla membrana más...

82
Programa Oficial de Postgrado: Master en Comunicaciones, Redes y Gestión de Contenidos TECNOLOGÍA DE LOS CONTENIDOS MULTIMEDIA Optativa de 2º cuatrimestre TEMA 9 La señal de Vídeo

Upload: others

Post on 22-Apr-2020

1 views

Category:

Documents


0 download

TRANSCRIPT

Programa Oficial de Postgrado:

Master en Comunicaciones, Redes y Gestión de Contenidos

TECNOLOGÍA DE LOS CONTENIDOS MULTIMEDIA

Optativa de 2º cuatrimestre

TEMA 9

La señal de Vídeo

TEMA 9

La señal de Video

9.1 EL SISTEMA VISUAL

El primer aspecto a considerar para comprender los sistemas audiovisuales es el funcionamientodel sistema visual humano, por razones obvias. Asimismo, en la compresión digital es tambiénnecesario entender el sistema visual humano. Comprender las características y las limitacionesdel sistema ojo-cerebro puede ayudar a maximizar la efectividad de las operaciones de la com-presión digital de imágenes.

El sistema visual humano está compuesto por el ojo y una parte del cerebro que procesa las seña-les neurológicas que provienen de este. El ojo convierte la información visual en impulsos ner-viosos usados por el cerebro.

El ojo en su conjunto, llamado globo ocular, es una estructura casi esférica de aproximadamente22mm de diámetro. Está rodeado por tres membranas: la córnea y la esclerótica, que constituyenla cubierta exterior, la coroides y la retina. Los rayos de luz generados o reflejados por un objetoprimero inciden en la córnea. La córnea actúa como una lente convexa, refractando los rayos.Esta refracción forma el enfoque inicial de la luz que entra al ojo. La córnea forma una protec-ción transparente que cubre la superficie anterior del ojo. Después de la córnea, los rayos pasan através de un líquido claro y húmedo llamado el humor acuoso, y después pasan a través del iris yel cristalino. El iris actúa como una apertura variable que controla la cantidad de luz que puedepasar a través del cristalino. Es controlado por músculos que lo abren y lo cierran basados en laintensidad promedio del objeto que es observado. Por la noche el iris se abre ampliamente, mien-tras que en un día luminoso se cierra significativamente. Este efecto lo reproducen las cámarasfotográficas y las de vídeo mediante el diafragma.

El cristalino lleva a cabo el segundo enfoque de la luz, proyectando a esta en la retina. El crista-lino es controlado por músculos que permiten variar la distancia focal del sistema óptico total

TEMA 9. LA SEÑAL DE VÍDEO UNED - CURSO 2007-2008

9.2 Tecnología de los Contenidos Multimedia

dependiendo de la distancia del objeto observado. Del mismo modo que en una cámara, el ojodebe ser enfocado según lo lejos que esté del objeto. Los rayos de luz salen del cristalino pasandoa través de una sustancia transparente y gelatinosa, llamada humor vítreo, y son finalmente enfo-cados en la retina. El humor vítreo mantiene la estructura del ojo mientras que ópticamente une elcristalino a la retina. Véase la figura 9.1

Figura 9.1 Diagrama de una sección transversal del ojo humano

La membrana más interna del ojo es la retina, que cubre la totalidad de la pared posterior.Cuando el ojo está correctamente enfocado, la luz de un objeto exterior al ojo forma su imagenen la retina. La retina está compuesta por fotorreceptores que convierten la intensidad y el colorde la luz en señales nerviosas. Existen dos tipos de fotorreceptores, bastones y conos. Los basto-nes son los más abundantes: entre 75 y 150 millones están distribuidos sobre la superficie reti-niana y son los que más responden a la luz. Su gran área de distribución, junto con el hecho deque grupos de varios bastones comparten una misma terminación nerviosa, reduce la cantidad dedetalle discernible por estos receptores. Los bastones sirven para dar una visión general delcampo de visión, no están implicados en la visión del color y son sensibles a niveles de ilumina-ción bajos, por ejemplo por la noche.

Los conos son mucho menos abundantes que los bastones (alrededor de 6 a 7 millones) y estánlocalizados principalmente en la región central de la retina, denominada fóvea. Los conos sonmuy sensibles al color y son algo menos sensitivos a la luz. Se usan para la visión de luz bri-llante, por ejemplo en un día soleado. Los seres humanos pueden apreciar detalles relativamentefinos gracias a esos conos porque cada uno está conectado a su propia terminación nerviosa. Losmúsculos que controlan el ojo giran el globo ocular hasta que la imagen del objeto visto queda enla fóvea. Existen tres tipos diferentes de conos; cada uno responde a una banda distinta del espec-tro de la luz. Básicamente, cada cono responde de forma diferente a un color arbitrario, asígenera un conjunto único de respuestas para cada color de la luz. Con estas señales de los trestipos de conos, el cerebro tiene la información con la que forma una percepción distinta de ungran número de colores diferentes.

TEMA 9. LA SEÑAL DE VÍDEO UNED - CURSO 2007-2008

Tecnología de los Contenidos Multimedia 9.3

Las diferencias entre bastones y conos, y sus distribuciones a través de la retina, son responsablesde diversos aspectos de la visión. Ya que los conos que sensan el color están concentrados en lafóvea, la percepción del color es mejor para los objetos que se ven directamente de frente. Recí-procamente, se tiene una mínima percepción del color para objetos en la visión periférica.Debido a que los bastones, altamente sensitivos, son abundantes por todas partes menos en lafóvea, la percepción de luz de bajo nivel es mejor en la visión periférica. Así, durante la noche,los objetos confusos se pueden ver por la parte periférica de la retina mientras que son invisiblespara la fóvea. La relativa insensibilidad de los conos cuenta además para la incapacidad de perci-bir el color bajo condiciones de poca luz, tal como por la noche.

Cuando la luz golpea los bastones y los conos, causa una reacción electroquímica que generaimpulsos nerviosos. Estos impulsos se pasan al cerebro por el nervio óptico, que es una extensiónde la retina que lo conecta al cerebro. En la retina se crea un pequeño punto ciego donde el nervioóptico se une. Los impulsos neuronales son recibidos por el cerebro y procesados por la cortezavisual. La percepción de la visión es creada dentro del proceso de la corteza visual.

Debido a que las imágenes digitales se presentan como un conjunto de puntos brillantes, la capa-cidad del ojo de discriminar entre diferentes niveles de iluminación es una consideración impor-tante para presentar los resultados del procesamiento de la imagen.

Figura 9.2 Respuesta logarítmica del ojo, Ley de Weber

La relación entre la intensidad de la luz que entra al ojo y su brillo percibido no es una funciónlineal. Esto significa que a medida que la intensidad de una fuente luminosa cambia, el observa-dor no percibirá un cambio igual en el brillo. La respuesta de la intensidad real del ojo es máslogarítmica, similar a la curva de la figura 9.2. De hecho, se ha mostrado experimentalmente quela intensidad de una fuente luminosa debe ser cercana al doble antes de que el ojo pueda detectarque ha cambiado. Por lo tanto, los cambios ligeros en la intensidad en regiones oscuras de unaimagen tienden a ser más perceptibles que los cambios iguales en regiones brillantes. Esta rela-

TEMA 9. LA SEÑAL DE VÍDEO UNED - CURSO 2007-2008

9.4 Tecnología de los Contenidos Multimedia

ción que hay entre la intensidad de la iluminación y el brillo percibido, es conocida como Ley deWeber.

La capacidad del ojo para discriminar entre cambios de iluminación para cada nivel específico deadaptación también es de considerable interés. Un experimento utilizado para determinar la capa-cidad del sistema visual humano de discriminar la iluminación consiste en colocar a un sujetoobservando un área plana, uniformemente iluminada, lo suficientemente grande para que ocupetodo el campo visual. Esta área es habitualmente un simple difusor, tal como un vidrio esmeri-lado, que se ilumina desde atrás con una fuente de luz cuya intensidad, I , puede variarse. A estecampo se añade un incremento de iluminación, ∆I, en forma de un destello de corta duración queaparece como un círculo en el centro del campo uniformemente iluminado, como se muestra enla figura 9.3.

Figura 9.3 Montaje experimental empleado para caracterizar la discriminación de iluminación

Si el ∆I no es lo suficientemente brillante, el sujeto debe decir "No", indicando que no percibe elcambio. Conforme ∆I aumenta, el sujeto puede dar una respuesta positiva "Si", indicando que hapercibido un cambio. Finalmente cuando ∆I sea suficientemente intenso acabará diciendo "Si"todas las veces. La cantidad ∆Ic/I , donde ∆Ic es el incremento de iluminación discernible el 50%de las veces con la iluminación de fondo I, se conoce como el cociente de Weber. Un pequeñovalor de ∆Ic/I significa que se puede discriminar un pequeño cambio de intensidad. Esto repre-senta una pobre discriminación de iluminación.

Una representación log ∆Ic/I como función del logI tiene la forma típica mostrada en la figura9.4. Esta figura muestra que la discriminación de iluminación es pobre (el cociente de Weber esgrande) para niveles de iluminación bajos, y mejora significativamente (el cociente de Weberdecrece) conforme crece la iluminación del fondo. Las dos ramas de la curva reflejan el hecho deque para niveles de iluminación bajos la visión se realiza a través de los bastones, mientras que aniveles elevados (mostrando mejor discriminación) la visión es función de los conos.

TEMA 9. LA SEÑAL DE VÍDEO UNED - CURSO 2007-2008

Tecnología de los Contenidos Multimedia 9.5

Figura 9.4 Cociente de Weber típico en función de la intensidad

Son dos los fenómenos que demuestran claramente que la percepción de la intensidad no es unafunción simple lineal de la intensidad. El primero se basa en el hecho de que el sistema visualtiende a sub o sobreestimar la intensidad. El primero se basa en el hecho de que el sistema visualtiende a hacerlo alrededor de las fronteras de regiones de diferentes intensidades. La figura 9.5muestra un ejemplo de este fenómeno. Aunque la intensidad de las franjas sea constante, real-mente se percibe un patrón de brillos fuertemente escalonado, especialmente cerca de las fronte-ras. En la figura 9.5.b se presenta la intensidad real en las franjas de la escala de grises, y lagráfica del brillo percibido por el ojo. Esta es la forma en que el ojo añade realce al contorno paralas transiciones de intensidad. El sistema visual realmente intensifica todo lo que ve, dando unaagudeza visual mejorada. Estas bandas que se perciben como escalonadas se denominan bandasMach, y el efecto se denomina efecto de bandas (Mach), en honor a Ernst Mach que fue el pri-mero es describir este fenómeno en 1865.

Figura 9.5 Escala de grises con franjas de igual intensidad

a) b)

TEMA 9. LA SEÑAL DE VÍDEO UNED - CURSO 2007-2008

9.6 Tecnología de los Contenidos Multimedia

El segundo fenómeno se denomina contraste simultáneo y está relacionado con el hecho de queel brillo percibido de una región no depende únicamente de su intensidad, sino que tambiéndepende de la intensidad del área circundante. Este efecto se muestra en la figura 9.6. Los cuatrocuadrados pequeños tienen intensidades idénticas, no obstante el de la parte superior izquierdaaparece más brillante que el de la inferior derecha. Esto es porque el área alrededor del cuadradode la parte superior izquierda es más oscura que el área alrededor del cuadrado de la parte inferiorderecha. El sistema visual ajusta su respuesta a la intensidad, basándose en la intensidad prome-dio alrededor de la vista resaltada. Como la parte superior izquierda de la imagen tiene una inten-sidad promedio más oscura (ya que el fondo es más oscuro), su cuadrado parece más brillante. Laintensidad promedio más brillante de la parte inferior derecha hace que su cuadrado parezca másoscuro. Por consiguiente, hay una diferencia en el brillo aparente de los cuatro cuadrados peque-ños, y parecen como progresivamente más oscuros, conforme el fondo se hace más claro.

Figura 9.6 Contraste simultáneo

El sistema visual tiene limitaciones fundamentales en la respuesta en frecuencia. Como en cual-quier sistema óptico, el ojo tiene limites sobre cómo puede resolver detalles finos, o transicionesde intensidad. Los factores limitantes son el número y organización de los fotorreceptores en laretina, la calidad de la parte óptica del ojo (córnea, humor acuoso, cristalino, y humor vítreo), y latransmisión y procesamiento de la información visual al cerebro. Generalmente, la respuesta enfrecuencia del ojo disminuye a medida que se ven transiciones de intensidad, que se vuelven cadavez más finas, como se ve en la figura 9.7. Es también un factor el contraste, o diferencia entreniveles de gris, de la transición de intensidad. Cuanto más alto es el contraste, más fino es el deta-lle que el ojo puede resolver. Finalmente, cuando las transiciones están demasiado finas o el con-traste es demasiado bajo, el ojo ya no puede resolverlos. En este punto, el ojo puede percibir sóloun promedio del nivel de gris del área detallada.

El fenómeno discutido ilustra el complejo proceso que ocurre en el sistema visual humano. Com-binando los conceptos de respuesta de intensidad no lineal, interacción del fotorreceptor y res-puesta en frecuencia del ojo, se pueden realizar las siguientes observaciones:

TEMA 9. LA SEÑAL DE VÍDEO UNED - CURSO 2007-2008

Tecnología de los Contenidos Multimedia 9.7

• La intensidad del objeto visto está relacionada con la intensidad promedio alrededor del objeto. El objeto aparece más oscuro si el área circundante es brillante, o más brillante si el área circun-dante es oscura.

• Los cambios sutiles de intensidad son mas aparentes en las regiones oscuras que en las regiones brillantes de la imagen.

• Las transiciones marcadas de intensidad se acentúan en una imagen. La respuesta a los detalles de la imagen decae cuando los detalles a resolver son demasiado finos. Los detalles con contraste alto se pueden resolver mas fácilmente que aquellos con contraste bajo.

Figura 9.7 Patrón que incrementa la frecuencia de izquierda a derecha y decrementa el contraste de arriba abajo

La visión de color presenta algunas características particulares. El ojo no es uniformemente sen-sible a todo el espectro visible. La figura 9.8 muestra la respuesta relativa del "ojo medio" a la luzde luminancia constante proyectada en varias longitudes de onda comprendidas en el espectro. Elpico (máximo) de la curva está en la región verde-amarillo y es interesante observar que unacurva que represente la distribución de energía de luz solar o natural tiene su máximo en estaárea. La curva de línea gruesa representa la impresión subjetiva de brillo del observador medioen condiciones de luz natural. Como muestra la segunda curva, en condiciones cercanas a laoscuridad la curva de respuesta se desplaza hacia la izquierda.

Figura 9.8 Sensibilidad relativa del ojo humano a diferentes longitudes de onda

TEMA 9. LA SEÑAL DE VÍDEO UNED - CURSO 2007-2008

9.8 Tecnología de los Contenidos Multimedia

Se dice que la luz de una sola longitud de onda es monocromática. Por nuestra aptitud para dis-tinguir una variedad de diferentes colores se puede suponer que existen diferentes tipos de conosen la retina, y que cada tipo está "sintonizado" a una pequeña banda de frecuencia. Si los conosfuesen monocromáticos de esta manera, entonces la impresión de un color dado podría ser produ-cido únicamente por la energía electromagnética que tuviese la longitud de onda apropiada. Sinembargo, esto no es cierto. La luz monocromática brillante que impresiona a la retina no es laúnica manera de crear una impresión de color dada. Por ejemplo, algunos amarillos monocromá-ticos pueden ser adaptados por la llegada simultanea a la retina de luz roja y verde. Casi todos loscolores pueden ser obtenidos mezclando sólo tres luces de color. A estos colores se les llama"primarios" y los que se usan son el rojo, el verde, y el azul.

El comportamiento del ojo es consistente con los tres tipos de conos únicamente, teniendo cadauno una curva diferente de respuesta. Las tres curvas de respuesta se solapan de manera quetodos los colores están debajo de cualquier curva de ellas, o bien parcialmente debajo de dos, ode las tres curvas. La figura 9.9 ilustra este hecho. Se observa que el amarillo activa los conosverde y rojo. Lo lógico es deducir que cuando la luz verde y la luz roja llegan a la retina al mismotiempo, la excitación simultánea de los conos correspondiente al verde y al rojo produce en elcentro sensorial del cerebro una impresión que es indistinguible de la del amarillo monocromá-tico.

Figura 9.9 Sensibilidades de los tres tipos de conos en la retina

Para que se pueda ver el color, tiene que llegar al ojo la energía electromagnética. Se ve un objetopor la luz reflejada desde él. Si parece verde a la luz del día, entonces esto debe implicar que aun-que está bañado de luz natural "blanca", es solamente la reflexión de la parte verde de la luz laque llega a los ojos. El resto del espectro es "absorbido". Por consiguiente un objeto parece colo-

TEMA 9. LA SEÑAL DE VÍDEO UNED - CURSO 2007-2008

Tecnología de los Contenidos Multimedia 9.9

reado a causa de que sólo refleja parte del espectro visible y absorbe el resto. El color procede dela luz incidente. La hierba no parece verde bajo iluminación de sodio a causa de que en ella nohay luz verde que pueda ser reflejada.

Los colores se pueden obtener haciendo una mezcla de los tres colores primarios, rojo, verde yazul, esta mezcla se denomina aditiva. Un ejemplo de la mezcla aditiva de estos tres colores es elsiguiente:

Rojo + Verde = AmarilloRojo + Azul = MagentaAzul + Verde = CianRojo + Azul + Verde = Blanco

Al mezclar los colores primarios en diferentes proporciones, se puede obtener casi cualquier otrocolor. Los colores amarillo, magenta y cian se conocen como colores complementarios. Si seañade un complementario en proporciones adecuadas a uno primario no contenido en él (porejemplo amarillo+azul), se produce blanco. En la figura 9.10 se puede observar la mezcla aditivade colores.

Figura 9.10 Mezcla aditiva de colores

El sistema visual humano puede adaptarse a un gran margen de niveles de luz mediante dos pro-cedimientos: bioquímico en las reacciones que tienen lugar en la retina y por la pupila. El tamañode la pupila puede variar entre un mínimo de 1.5 mm de diámetro y un máximo de 8 mm, lo quesignifica unas 30 veces en el nivel de luz. El procedimiento bioquimico es más lento que el de lapupila pero puede cambiar la sensibilidad en un factor entre 500000 y 1000000.

Considerando el conjunto de las células sensibles del ojo, la sensibilidad total varía con la fre-cuencia (color) de la luz. Por ejemplo, dos radiaciones lumínicas una de color amarillo-verdoso,otra de color rojo y las dos de la misma potencia, se percibe más brillante (más clara) la amarilloverdosa que la roja. La figura 9.11 ilustra la respuesta en frecuencia del ojo. La respuesta es dis-

TEMA 9. LA SEÑAL DE VÍDEO UNED - CURSO 2007-2008

9.10 Tecnología de los Contenidos Multimedia

tinta si la visión es fotópica (niveles medios o altos de luz) o escotópica (niveles muy bajos deluz)

Figura 9.11 Respuesta en frecuencia del ojo

Figura 9.12 Espectro electromagnético.

TEMA 9. LA SEÑAL DE VÍDEO UNED - CURSO 2007-2008

Tecnología de los Contenidos Multimedia 9.11

9.2 CONCEPTOS BÁSICOS DE LA RADIACIÓN LUMINOSA. TEORÍA DEL COLOR

La luz es una onda electromagnética, y por tanto uno de sus parámetros fundamentales es la fre-cuencia. La frecuencia de una radiación o su longitud de onda determina por ejemplo el compor-tamiento en la propagación, las dimensiones de las antenas a utilizar, etc.

Así, podemos tener una emisión de radio, por ejemplo, a una frecuencia de 500 KHz o de 800MHz captada por las antenas correspondientes, pero, si subimos en frecuencia hasta una frecuen-cia suficiente, la onda electromagnética será captada por el ojo como una radiación lumínica decolor rojo, amarillo... hasta el violeta para la frecuencia más alta. Si sigue aumentando la frecuen-cia la radiación dejará de ser visible pasando a la banda de los rayos X, gamma, etc. Es decir, laluz visible es una radiación electromagnética de la misma naturaleza que las ondas de radio peroperteneciente a la banda de longitudes de onda comprendidas entre 380 nm (violeta) a 780 nm(rojo). La figura 9.12 muestra el espectro electromagnético completo y un detalle del visible.

La luz es monocroma si contiene una radiación de una determinada longitud de onda y es poli-croma si está compuesta por varias radiaciones de longitudes de onda distintas. En el caso de laluz monocroma el color depende de la frecuencia de la radiación.

La luz solar, percibido como luz de color blanco es un ejemplo de luz policroma. Contiene unamezcla de todos los colores, es decir, tiene radiaciones de todas las longitudes de onda del espec-tro visible.

La colorimetría trata de cuantificar el color. El color en una luz monocromática está directamenterelacionado con la longitud de onda, desde el violeta para la menor longitud de onda visible (380nm) hasta el rojo para la mayor (780 nm).

Pero en la mayor parte de las situaciones, las radiaciones luminosas que percibe el sistema visualhumano no son monocromáticas, sino que contienen una distribución espectral más o menosancha, policromática, como por ejemplo la del sol, o bien debida al resultado de reflejarse otransmitiese esa luz en un cuerpo.

Los objetos tienen un determinado color porque producen una reflexión de la luz que depende dela frecuencia. Así, un objeto iluminado con una luz blanca tiene color verde porque refleja laradiación correspondiente a las longitudes de onda de la zona de los

verdes, y no refleja (absorbe o transmite) el resto.

Ante la presencia de una radiación policromática, el ojo, percibe una sensación de color única. Lasensación de luz tiene tres partes: en primer lugar, la cantidad de luz o lo brillante que es la radia-ción, la luminancia; en segundo lugar el tono o matiz que indica el color, si es rojo, verde, azul,etc; y por último la pureza o saturación que indica si es un color claro o intenso. Por ejemplo, elrosa es un color rojo poco saturado, rojo mezclado con luz blanca.

TEMA 9. LA SEÑAL DE VÍDEO UNED - CURSO 2007-2008

9.12 Tecnología de los Contenidos Multimedia

Hay dos tipos de mezclas de color, la aditiva y la sustractiva. La sustractiva es por ejemplo lamezcla de pinturas, y la aditiva es la que se usa para la reproducción de colores en televisión y seconsigue con mezcla de luces de colores.

La mezcla aditiva es la que se produce cuando la radiación resultante contiene la radiación de doso más fuentes, el resultado en el ojo es una sensación equivalente a un nuevo color. Es un fenó-meno subjetivo.

Hay diferentes métodos para mezclar aditivamente varios colores. Las más relevantes son lassiguientes.

Simultánea en el mismo punto. Es una mezcla en la que varias fuentes están presentes en todomomento sobre la misma superficie.

Alterna en el mismo punto. Es una mezcla por alternancia de las fuentes en el tiempo proyectadassobre la misma superficie a una frecuencia suficientemente elevada para que la integración tem-poral del ojo produzca una única sensación. Es la técnica empleada por los modernos proyectoresde vídeo con tecnología DLP.

Yuxtapuesta por puntos (composición de puntos). Es una mezcla por alternancia en el espacio demanera que puntos pequeños de diferentes colores y próximos entre sí vistos a suficiente distan-cia para que el ojo realice la integración espacial. Esta mezcla es la que se utiliza en televisión ylas impresoras de color. Este efecto se puede ver claramente si se observa de cerca un gran cartelpublicitario. A una cierta distancia, lo normal para la observación de este tipo de carteles, se per-cibe un color uniforme. Pero al acercarnos los suficiente se pueden ver las partes constituyentes,que son normalmente de cuatro colores distintos (

La colorimetría se basa en las experiencias que realizaron Grassmann y Maxwell sobre el com-portamiento subjetivo ante mezclas de colores.

Las leyes de Grassmann son las siguientes:

1.- Toda sensación de color se puede obtener por suma de tres fuentes de colores seleccionadosque llamaremos primarios y que son rojo, verde y azul.

2.- Cuando se ha establecido la igualdad de la primera ley, la luminancia del color igualado esla suma de las luminancias de los primarios utilizados en la igualación.

3.- Dos radiaciones cromáticamente equivalentes lo siguen siendo para un amplio margen deluminancias.

4.- Dos radiaciones cromáticamente equivalentes a una tercera son equivalentes entre sí (pro-piedad transitiva). Esto se denomina metamerismo cromático.

La medida del color se realiza con el colorímetro, que es un dispositivo sencillo. Consta de dospaneles, en cada uno de ellos se proyecta una luz distinta y pueden ser observadas simultánea-mente. En una parte se proyecta una combinación de los tres primarios referidos por la primeraley de Grassmann y en la otra el color bajo análisis. La figura 9.13 muestra un colirímetro.

TEMA 9. LA SEÑAL DE VÍDEO UNED - CURSO 2007-2008

Tecnología de los Contenidos Multimedia 9.13

Figura 9.13 Colorímetro

El procedimiento consiste en ir variando la cantidad de cada primario hasta que el observadortenga la misma sensación en cada uno de los paneles. En esta situación ambas radiaciones soncromáticamente equivalentes y por tanto el color C queda caracterizado por la cantidad de cadaprimario utilizado (al,a2,a3).

Con este procedimiento se realiza una medida subjetiva evitando utilizar la poca capacidad delsistema visual para establecer una escala absoluta de colores y aprovechando su gran capacidadpara la comparación.

Al analizar una gran cantidad de colores se observa que para algunos colores no se puede obteneruna radiación equivalente con los tres primarios tal que

a1Pl + a2P2 + a3P3 ≠ CEn estos casos se llega a la equivalencia cuando uno de los primarios es negativo:

a1Pl + a2P2 - a3P3 ≠ C La triada que identifica a este color es entonces (al,a2,-a3).

La figura 9.14 muestra las cantidades de los tres colores primarios RGB que son necesarios paraobtener las longitudes de onda del espectro visible.

Los valores negativos indican que algunos colores no pueden obtenerse con coeficientes positi-vos.

La Comisión Internacional de la Iluminación (CIE o ICI, Commission Internationale de L'Eclai-rage, or International Commission on Illumination) eligió tres colores primarios para normalizarla medida del color. Dichos primarios se eligieron de forma que pudieran obtenerse una granparte de colores con coeficientes positivos.

Rojo de 700 nm (R)

Verde de 546.1 nm (G)

Azul de 435.8 nm (B)

TEMA 9. LA SEÑAL DE VÍDEO UNED - CURSO 2007-2008

9.14 Tecnología de los Contenidos Multimedia

Figura 9.14 Cantidades de los tres colores primarios RGB que son necesarios para obtener las longitudes de onda delespectro visible.

Estos primarios igualan el blanco (W) equienergético que es aquel con la misma potencia en cadalongitud de onda desde el violeta al rojo (ver figura 9.15), con las proporciones:

LR=1.891

LG=8.681

LB=0.1136

Figura 9.15 Blanco equienergético.

Otra representación del color, también muy utilizada, es la compuesta por la triada luminancia obrillo, tono o matiz y saturación o pureza (HSI: Huge, Saturation and Intensity).

Ambas representaciones caracterizan a un color y se puede pasar de una a otra mediante unamatriz de transformación:

Donde los valores γ dependen de los primarios elegidos.

11 12 13

21 22 23

31 32 33

I RH GS B

γ γ γγ γ γγ γ γ

=

TEMA 9. LA SEÑAL DE VÍDEO UNED - CURSO 2007-2008

Tecnología de los Contenidos Multimedia 9.15

El que cada color esté caracterizado por tres coeficientes permite representar los coloresmediante un espacio vectorial donde cada eje corresponde a un primario y cada punto del espacioa un color, definiendo así el espacio de color.

Dada la gran distancia entre los valores, el blanco no queda en el centro del sistema de referencia,lo cual hace que en un eje haya que tratar los números con mucha precisión, mientras que en losotros esa precisión es menos importante.

Para evitar esto el CIE propuso otro sistema con los mismos primarios pero ponderados por unoscoeficientes tal que el blanco estuviese en las coordenadas (1, 1, l), de manera que

La figura 9.16 muestra este espacio de color.

Figura 9.16 Espacio colorimétrico con W en (1,1,1).

Para estudiar sólo el color no hacen falta los tres valores R,G,B puesto que la luminancia noaporta información sobre el color, así pues, se puede normalizar respecto a la suma de R,G,Bdefiniendo un nuevo sistema de referencia rgb tal que:

1.891

8.681

0.1136

R

G

B

LR K

LG K

LB K

=

=

=

; ;R G Br g bR G B R G B R G B

= = =+ + + + + +

TEMA 9. LA SEÑAL DE VÍDEO UNED - CURSO 2007-2008

9.16 Tecnología de los Contenidos Multimedia

Este sistema determina un espacio vectorial de dos dimensiones, puesto que hay una relaciónlineal entre ellas r+g+b= l, tal y como ilustra la figura 9.17.

Figura 9.17 Espacio rgb.

Todos los colores están ahora sobre el plano r+g+b=l. Si se toma la parte del plano que está en elprimer cuadrante se obtiene el Triángulo de Maxwell, que se muestra en la figura 9.18.

Figura 9.18 Triángulo de Maxwell

La mezcla de los colores C1 y C2 produce el color C3.

Se puede definir también una medida del tono y la saturación sobre el triángulo definiendo un ejede referencia para los ángulos, como se muestra en la figura 9.19, en el que el módulo está rela-cionado con la saturación y el ángulo con el tono.

TEMA 9. LA SEÑAL DE VÍDEO UNED - CURSO 2007-2008

Tecnología de los Contenidos Multimedia 9.17

Figura 9.19 Tono y saturación sobre el triángulo de Maxwell.

Con cualquiera de los sistemas hasta ahora analizados, algunos colores y sobre todo los mono-cromáticos tienen coeficientes negativos. Por ejemplo:

Verde de 560 nm: r=0.3164; g=0.6881; b=-0.0045

Azul de 480 nm: r=-0.3667; g=0.2906; b= 1.0761

Además otro inconveniente es que la luminancia no queda reflejada directamente en ninguno delos ejes del sistema de referencia.

Para evitar estos dos inconvenientes el CIE recomendó en 1931 usar un nuevo espacio

colorimétrico, el XYZ. El Y fue elegido intencionadamente de forma que sea idéntico a la fun-ción de eficiencia luminosa del ojo humano. Los primarios deben estar referidos de modo queningún

color tenga componentes negativos. No existe ningún trío de colores en la naturaleza que cumplaesta condición. Así pues, el nuevo sistema XYZ consta de primarios que no tienen corresponden-cia con colores reales.

Los nuevos primarios escogidos tienen los siguientes coeficientes rgb:

X: r = 1.2750;g = -0.2778;b = 0.0028

Y: r = -1.7394;g = 2.7674;b = -0.0280

Z: r = - 0.7429;g = 0. 1409;b = 1.6020

y normalizados son:

; ;X Y Zx y zX Y Z X Y Z X Y Z

= = =+ + + + + +

TEMA 9. LA SEÑAL DE VÍDEO UNED - CURSO 2007-2008

9.18 Tecnología de los Contenidos Multimedia

De esta forma los colores del anterior ejemplo serán:

Verde de 560 nm:x=0.3731;y=0.6245; z=0.0240

Azul de 480 nm:x=0.0913y=0.1327;z=0.7760

Al igual que con RGB al pasar a los coeficientes normalizados, conocidos dos coeficientes sepuede determinar el tercero mediante la ecuación: x+y+z = 1. Así todos los colores pueden repre-sentarse en un plano. Si por ejemplo se toman los coeficientes x e y, todos los colores quedanrepresentados en el triángulo de vértices (0,0), (1,0), (0,1), puesto que los coeficientes x, y, z, sonmenores que 1. Este es conocido como el triangulo de cromaticidad y se ilustra en la figura 9.20.

Figura 9.20 Triángulo de cromaticidad

Si se ubican los puntos del espectro dentro del triángulo se obtiene el diagrama de cromaticidad.

El espectro comienza en 380 nm, continúa en el sentido de las agujas del reloj y termina en 780nm. Esta línea se denomina espectrum locus por ser el lugar de los colores monocromáticos delespectro y se ilustra en la figura 9.21.

La recta que une el punto de 380 nm con el de 780 nm no corresponde a ningún color monocro-mático. Se llama recta de los púrpuras y el color percibido es una sensación subjetiva.

9.2.1 LUMINÓFOROS UTILIZADOS EN TVC.Los primarios utilizados para TV de color no son los mismos primarios que los del CIE, porquela luz que producen los materiales luminiscentes al ser golpeados por un haz de electrones no tie-nen un espectro monocromático. Los primarios de TV ubicados dentro del diagrama de cromati-cidad se presentan en la figura 9.22. Los colores reproducibles por el receptor de TV son los quecontiene el triángulo.

TEMA 9. LA SEÑAL DE VÍDEO UNED - CURSO 2007-2008

Tecnología de los Contenidos Multimedia 9.19

Figura 9.21 Diagrama de cromaticidad

Figura 9.22 Luminóforos utilizados en T. V.

Se puede observar que los colores del espectro quedan fuera de él. Este hecho no es importanteporque los colores que se presentan en la naturaleza raramente son saturados al 100%.

En 1976 CIE redefinió el modelo, presentando el denominado CIE L*a*b, que se muestra en lafigura 9.23. Se trata de una diagrama de luminancia desde el valor cero (negro) al 100 (blanco) yde crominancia de manera que en un eje está en el rango del verde al rojo y en el otro en el rango

TEMA 9. LA SEÑAL DE VÍDEO UNED - CURSO 2007-2008

9.20 Tecnología de los Contenidos Multimedia

del azul al amarillo. Este es el sistema utilizado por Photoshop. Recuérdese que el CMYK es elsistema utilizado para la impresión, por lo que es razonable que Photoshop lo utiliza ya que estaes su finalidad última. En cualquier caso también incorpora herramientas de conversión a otrosespacios de color, como por ejemplo a RGB.

Figura 9.23 CIE L*a*b

Los modelos de color para imágenes suelen basarse en el modelo (R,G,B). Estas tripletas codifi-can cuánto tienen que excitarse los elementos de dispositivos tales como monitores. En concretolas pantallas CRT tienen tres luminóforos que producen una combinación de longitudes de ondacuando se excitan mediante los electrones.

Otro modelo alternativo estrechamente relacionado es el modelo CMY, Cyan, Magenta, yYellow, que son los colores complementarios de RGB. Pueden utilizarse como primarios sustrac-tivos. Este modelo suele utilizarse en dispositivos de impresión en los que los pigmentos delcolor sobre el papel absorben ciertos colores, por ejemplo, no se refleja luz roja de la tinta cyan.

La figura 9.24 muestra la comparación entre los espacios RGB y CMY. La conversión entreambos espacios de color convierte el blanco en RGB, (1, 1, 1), a (0, 0, 0) in CMY.

111

C RM GY B

= −

111

R CG MB Y

= −

TEMA 9. LA SEÑAL DE VÍDEO UNED - CURSO 2007-2008

Tecnología de los Contenidos Multimedia 9.21

En algunas ocasiones en los dispositivos de color se utiliza un modelo alternativo, CMYK, dondeK representa al negro (black). Con este modelo se dispone del negro directamente sin recurrir a lamezcla de CMYK y permite alcanzar negros saturados. De la misma forma, los proyectores DLPtambién incorporan luz blanca para obtener blancos luminosos y brillantes sobre la pantalla.

Figura 9.24 Comparación entre los espacios RGB y CMY.

La figura 9.25 ilustra los rangos de los diferentes modelos de color. Como puede observarse elmodelo Lab cubre todos los colores del espectro visible, el de RGB es menor, por lo que algunoscolores visibles no pueden presentarse en los monitores, como por ejemplo el amarillo puro, o elcyan puro. Por último el modelo CMYK es el menor, pero obsérvese que no es un subconjuntodel RGB.

Para las aplicaciones de vídeo se utilizan normalmente dos modelos, YIQ y YUV.

Figura 9.25 Rangos de los diferentes modelos de color.

TEMA 9. LA SEÑAL DE VÍDEO UNED - CURSO 2007-2008

9.22 Tecnología de los Contenidos Multimedia

El espacio de color YUV fue utilizado inicialmente en el vídeo analógico PAL, y en la actualidades utilizado en el estándar de video digital CCIR 601. En este modelo se utilizan los siguientesparámetros:

• Y (luminancia) es el primario Y de CIE.

La figura 9.26 reproduce la curva de visibilidad relativa. En la curva se indican los tres coloresprimarios utilizados en TV y en el eje de ordenadas se muestran los valores de la sensibilidadrelativa del ojo para las longitudes de onda de RGB.

Figura 9.26 Curva de visibilidad relativa.

Con ello:

Azul: Longitud onda = 470 nm,Sensibilidad = 0,17

Verde: Longitud onda = 535 nm,Sensibilidad = 0'92

Rojo: Longitud onda =:610 nm,Sensibilidad = 0'47

Es decir, Y = 0.47R + 0.92G + 0.17B

Si las componentes RGB están normalizadas R, G, B , la luminancia puede normalizarse divi-diendo por la suma de los coeficientes (0.47+0.92+0.17=1.56) resultando:

Y = 0.299R + 0.587G + 0.114B

En la práctica, se utiliza una expresión simplificada de la ecuación anterior:

Y =0.3R + 0.59G + 0.11 B• "La crominancia se define como la diferencia entre un color y un blanco de referencia con la

misma luminancia. Se representa mediante las diferencias de color, U y V.

U = B - Y

V = R - Y

TEMA 9. LA SEÑAL DE VÍDEO UNED - CURSO 2007-2008

Tecnología de los Contenidos Multimedia 9.23

Si la imagen es blanco y negro entonces U = V = 0, es decir, no hay crominancia. En las imple-mentaciones del formato PAL (más adelante en el estudio de la señal de color compuesta se jus-tifican estas expresiones):

U = 0.493 (B - Y)

V = 0.877 (R - Y)

Un modelo estrechamente relacionado con el YUV es el modelo YCbCr, que es un YUV esca-lado y desplazado. Las diferencias de color vienen dadas por:

Cb = (B - Y) / 1.772 + 0.5

Cr = (R - Y) / 1.402 + 0.5

De esta forma los valores de la crominancia están siempre en el rango de 0 a 1. El modelo YCbCrse utiliza en JPEG y MPEG. Por este motivo, estas siglas se pueden ver también en los conecto-res de algunos reproductores domésticos de DVD. Cuando un reproductor tiene este tipo desalida se dice que tiene salida por componentes y es la que proporciona mayor calidad de imagen.Obviamente se requiere que la televisión o pantalla tenga también este tipo de entrada y esto sóloestá disponible en los visualizadores de alta gama.

Por último, el modelo de color YIQ se utiliza en el formato de televisión NTSC, y es compatiblecon las televisiones blanco y negro en las que sólo se utiliza Y. Aunque U y V definen perfecta-mente las diferencias de color, no se corresponden con la sensitividad del color de la percepciónhumana. Por ello se utilizan I y Q en su lugar en NTSC.

I es el eje naranja-azul, y Q es el eje violeta-verde. Estos dos ejes son los ejes R - Y y B - Yescalados y rotados 33 grados en el sentido de las agujas de reloj. Así:

I = 0.877(R - Y) cos 33 - 0.492(B - Y) sin 33

Q = 0.877(R - Y) sin 33 + 0.492(B - Y) cos 33

es decir:

I = 0.736(R - Y) - 0.268(B - Y) = 0.596R - 0.275G - 0.321B

Q = 0.478(R - Y) + 0.413(B - Y) = 0.212R - 0.523G + 0.311B

Por tanto la relación entre el espacio YIQ y el RGB viene dada por:

0.299 0.587 0.1140.596 0.275 0.3210.212 0.523 0.311

Y RI GQ B

= − − −

TEMA 9. LA SEÑAL DE VÍDEO UNED - CURSO 2007-2008

9.24 Tecnología de los Contenidos Multimedia

9.3 SEÑALES ELÉCTRICAS PARA LA CONVERSIÓN DE IMÁGENES

El sistema básico de televisión captura una escena y la reproduce con el objetivo de que unespectador vea la escena lo más parecida posible a la real. Una escena real es un espacio tridi-mensional en el que se encuentran objetos, también de 3 dimensiones, que emiten o reflejan luz,produciendo una distribución de luz a lo largo de los tres ejes del espacio.

Además, puede haber movimiento, introduciendo variaciones de la distribución de luz en funcióndel tiempo. Por tanto una escena va a tener 4 dimensiones a considerar: tres espaciales y una tem-poral, además del sonido que se considera aparte.

Para formar una imagen de dos dimensiones a partir de la escena de tres dimensiones, lo que sehace es adquirir la imagen mediante una cámara, fotográfica o de T.V, en la que la escena 3D seproyecta sobre una superficie 2D. Con ello se elimina una cantidad importante de información dela escena.

Para la dimensión temporal se realiza una discretización tomando proyecciones instantáneas endeterminados momentos. El movimiento se reproducirá visualizando las proyecciones de instan-tes sucesivos a velocidad suficiente para que el sistema visual humano tenga la sensación de unmovimiento continuo y no a saltos. Así, el problema se reduce a convertir la distribución de luzque se produce sobre la superficie de proyección en un determinado instante a una señal eléc-trica.

Para convertir variaciones de luz en variaciones de señal eléctrica se utiliza una fotocélula. Peroesto no es suficiente para captar una imagen completa. La escena está compuesta por una intensi-dad de luz en cada punto, y por tanto, el sensor debe convertir independientemente la luz proce-dente de cada punto. Por ello hay que dividir la imagen en partes suficientemente pequeñas yrealizar una fotoconversión para cada una de ellas, a continuación transmitir la información, y enel otro extremo reproducir la luz de cada porción de la imagen.

La dimensión de los elementos de la imagen debe ser tal que el sistema visual humano no percibacada elemento, sino que el conjunto de los elementos de la sensación de una imagen natural. Enello influye, entre otros factores, la distancia a la que se observa la imagen reproducida, la dife-rencia entre la luz del objeto y del fondo, y la resolución visual del espectador. La resoluciónvisual se define como la inversa del ángulo formado por las rectas que unen los elementos con elojo del observador, donde la distancia que separa a los elementos es la mínima para que el obser-vador sea capaz de distinguirlos.

Cada individuo tiene una resolución diferente y tampoco los textos bibliográficos dan un valorestándar; pueden encontrarse desde 2 minutos de arco hasta 0.5 minutos de arco. Un valor de 1.3minutos de arco indica una capacidad del ojo de discernir entre dos puntos separados una distan-cia de 0,4 mm a 1 metro.

TEMA 9. LA SEÑAL DE VÍDEO UNED - CURSO 2007-2008

Tecnología de los Contenidos Multimedia 9.25

Para descomponer una imagen puede pensarse en disponer de un sensor formado por un conjuntode fotocélulas colocadas en una matriz rectangular, y para reproducirla la misma disposición dematriz de elementos fotoemisores.

Esta disposición permite no discretizar la dimensión temporal. Sin embargo, el número de ele-mentos en los que hay que descomponer la imagen es muy elevado por lo que esta solución erainviable en los años en los que se desarrolló la primera TV monocroma.

El método que realmente se utiliza en televisión es realizar una lectura de la imagen mediante laexploración secuencial de la imagen proyectada sobre una superficie fotosensible, siguiendo unpatrón determinado. En el receptor, se realiza una exploración con un procedimiento fotoemisivopuntual, es decir, que emita luz en un único punto, cuya intensidad luminosa sea función de laseñal eléctrica recibida.

En este contexto aparece el concepto de barrido o exploración, que es el método utilizado en tele-visión para obtener una señal eléctrica que represente una imagen.

La mayoría de cámaras de TV utilizan el barrido con un haz de electrones de una superficie foto-sensible, en la que se produce una acumulación de carga en cada punto, función de la intensidadde luz incidente.

El barrido se efectúa describiendo líneas horizontales de izquierda a derecha en la superficiefotosensible. Una vez alcanzado el borde izquierdo, se retrocede al borde derecho y se explora lalínea horizontal siguiente, tal y como ilustra la figura 9.27.a.

Simultáneamente al movimiento horizontal, también es necesario un movimiento vertical dearriba a abajo, para ir avanzando de una línea a otra. Al llegar a la última línea se retrocede en elmovimiento vertical para volver de nuevo a la línea superior de la pantalla.

En un sistema real de TV, el retorno vertical es mucho más lento que el movimiento horizontal yademás el movimiento horizontal no cesa durante el retorno vertical. Así la trayectoria descritapor el haz durante el retroceso vertical () es la que se describe en la figura 9.27.b.

Figura 9.27 (a) Barrido. (b) Trayectoria del haz durante el retorno vertical.

TEMA 9. LA SEÑAL DE VÍDEO UNED - CURSO 2007-2008

9.26 Tecnología de los Contenidos Multimedia

Durante los tiempos de retorno, el haz debe estar inactivo para que no se visualice en la pantalla.La figura 9.28 muestra la señal para dos líneas, N y N+1, que se producirá para las imágenesmostradas.

(a)

(b)

Figura 9.28 Señales para las líneas N y N+1 de dos imágenes.

En el receptor se reproduce la imagen mediante una pantalla sobre la que hay película de material que al ser bombardeada por un haz de electrones produce luz El haz puede variar su intensidad para reproducir en cada punto de la imagen la luz del punto correspondiente de la proyección.

Para representar la imagen completa el haz de electrones debe barrer la superficie fotoemisiva con la misma trayectoria con la que el haz de electrones de la cámara exploró la superficie foto-sensible para generar la señal eléctrica.

Con este sistema de exploración mediante líneas aparecen intrínsecamente dos aspectos básicos a considerar. En primer lugar debe determinarse en cuántas líneas hay que dividir la imagen, y en segundo lugar cuál es la velocidad a la que tiene que moverse el haz.

El número de líneas debe ser tal que un espectador situado a la distancia habitual de observación no las distinga y vea una imagen continua.

El ancho de una línea, d, está relacionado con el número de líneas, N, tal que

hdN

=

TEMA 9. LA SEÑAL DE VÍDEO UNED - CURSO 2007-2008

Tecnología de los Contenidos Multimedia 9.27

donde h es la altura de la pantalla.

Si se considera una distancia media de observación, D, seis veces h, D=6h, entonces el ánguloumbral promedio θn es muy pequeño (θn es el inverso de la resolución del ojo). La figura 9.29muestra estas magnitudes. Por tanto

Figura 9.29 Magnitudes para el cálculo del número de líneas.

Para que el observador no aprecie las líneas debe satisfacerse que . Por tanto

y el número de líneas debe satisfacer

Para una resolución del ojo de 1.3 minutos de arco, se obtiene:

Este valor debe entenderse como una primera aproximación. Debe tenerse en cuenta que el gro-sor del haz de exploración es de dimensiones similares al grosor de una línea. Cuando el barrido es alineado, es decir, cuando la imagen tiene el máximo de detalle alineado con el haz, 425 son suficientes para obtener una señal correcta. La figura 9.30 muestra una imagen con N barras hori-zontales, N/2 blancas y N/2 negras, alineadas con el haz. La señal reproducida es correcta.

( ) 16n n

dtgD N

θ θ= = =

nθ θ<

16 n

>

4

1 425 lineas6 3.9210

N −> =×

TEMA 9. LA SEÑAL DE VÍDEO UNED - CURSO 2007-2008

9.28 Tecnología de los Contenidos Multimedia

Figura 9.30 Barrido alineado.

Evidentemente en general el haz no estará alineado con la escena. La figura 9.31 muestra el caso extremo contrario, un barrido no alineado en el que el número máximo de detalle no está ali-neado con el haz.

(a) (b)

Figura 9.31 Barrido no alineado. (a) Imagen con el detalle máximo no alineado con el haz. (b) Señal resultante

La señal eléctrica obtenida es la integración de la fotoconversión. Como en la zona que abarca el haz hay parte blanca y parte negra, la señal resultante es un nivel de señal de gris medio, y por tanto, la imagen estará mal capturada. Evidentemente esta situación tampoco es habitual

Por tanto debe aumentar el número de líneas. Para determinar el factor de incremento se realiza-ron análisis estadísticos, tal que el número de líneas es:

donde K es el factor de Kell, K=0.7. Por tanto:

El sistema de TV europeo consta de 625 líneas, de las cuales sólo 575 contienen imagen.

1N NK

′ =

1425 607lineas0.7

N′= =

TEMA 9. LA SEÑAL DE VÍDEO UNED - CURSO 2007-2008

Tecnología de los Contenidos Multimedia 9.29

La velocidad del haz viene caracterizada por la frecuencia de barrido. Para elegir la frecuencia de barrido debe tenerse en cuenta que la imagen se reproduce mediante un haz de electrones que produce luz sólo en un punto en cada instante. La imagen está compuesta por muchos puntos y transcurre un tiempo, T, mayor que cero, denominado tiempo de barrido, desde que se ilumina un punto hasta que vuelve a iluminarse.

Si el tiempo de barrido es grande el ojo percibirá la luz de un punto de la pantalla de forma inter-mitente. Si el tiempo T se va haciendo más pequeño el ojo no es capaz de seguir las variaciones rápidas y llega un momento en que el punto se percibe como constantemente iluminado.

El haz, al ir barriendo la pantalla a suficiente velocidad produce en el sistema visual humano la sensación de una imagen, cuando en realidad en cada instante el haz sólo está bombardeando un punto de la pantalla. Para determinar el umbral, es decir, el valor para el que el ojo ve la imagen y no a un punto iluminado moviéndose a lo largo de la pantalla se realizó un análisis estadístico de la respuesta del ojo al parpadeo.

La figura 9.32 ilustra la frecuencia umbral. Se puede observar que depende del brillo de la ima-gen. Cuánto más brillante es un punto mayor debe ser la frecuencia para que parezca constante-mente iluminado.

Figura 9.32 Umbral de parpadeo en función del brillo.

Para que el parpadeo no se aprecie la frecuencia debe ser mayor que 65 Hz. Una frecuencia de imagen de 65 Hz provoca que la TV tenga un ancho de banda muy grande. Por ello es necesario arbitrar algún método para reducirla. Este método es el barrido entrelazado.

El barrido entrelazado consiste en efectuar el barrido de la pantalla en dos fases, cada una de ellas al doble de frecuencia que los 65 Hz, Se realiza primero el barrido de las líneas impares y luego el de las pares. La figura 9.33 ilustra este procedimiento.

TEMA 9. LA SEÑAL DE VÍDEO UNED - CURSO 2007-2008

9.30 Tecnología de los Contenidos Multimedia

Figura 9.33 Barrido entrelazado

Cada fase se llama semi-imagen o campo. Con ello se consigue disminuir el parpadeo que per-cibe el ojo, con respecto al barrido no entrelazado de igual frecuencia, porque aunque el tiempo que transcurre entre dos iluminaciones sucesivas de un punto es el mismo que en un barrido no entrelazado, los puntos vecinos han sido iluminados en la mitad de tiempo.

Además, con un barrido entrelazado disminuye el efecto que consiste en que debido a la persis-tencia del ojo se vería una franja más iluminada que el resto, correspondiente a la estela del punto de exploración que avanza hacia abajo y cuando desaparece por abajo vuelve a aparecer por arriba avanzando de nuevo hacia abajo.

Este efecto 'ola' disminuye gracias al barrido entrelazado porque el tiempo que transcurre entre dos pasadas por una zona de la pantalla es la mitad y porque en un mismo intervalo de tiempo se iluminan doble cantidad de líneas y por tanto la 'ola' es más ancha, diluyéndose más en el resto de la imagen.

Por razones de interferencias con la fuente de alimentación se elige la frecuencia de campo (semi-imagen) igual a la frecuencia de la red. Así en Europa son 50 campos/segundo, 25 imáge-nes/segundo y 625 líneas; y en USA, Canadá, Japón y otros países son 60 campos/segundo, 30 imágenes/segundo y 525 líneas.

La frecuencia de línea y el periodo de línea en el sistema europeo son:

El hecho de que el número de líneas sea impar requiere un análisis adicional. Si es así, durante ambas semi-imágenes los recorridos del barrido vertical son iguales, simplificando la circuitería, mientras que si es par entonces deben ser diferentes. La figura 9.34.a muestra el barrido entrela-zado con un número impar de líneas horizontales y la figura 9.34.b con un número par.

25 625 15655L imagenf f N Hz= × = × =

1 64LL

T sf

µ= =

TEMA 9. LA SEÑAL DE VÍDEO UNED - CURSO 2007-2008

Tecnología de los Contenidos Multimedia 9.31

Figura 9.34 (a) Número impar de líneas horizontales. (b) Número par de líneas horizontales

Figura 9.35 Corrección gamma.

La señal de TV transmitida desde la cámara se reproduce en el receptor de TV. La pantalla es untubo de rayos catódicos y tiene una respuesta de luz no lineal en función de la señal eléctrica.Para que el comportamiento del conjunto cámara-receptor sea lineal hay que hacer una correc-ción, la corrección gamma. Si B es el brillo producido, E la señal aplicada y γ es la gamma deltubo en el receptor, entonces . En la cámara Bs es el brillo de la escena y Es la señal

de salida de la cámara y , la gamma del sensor, con

Si la señal de la cámara se aplica directamente al receptor entonces el brillo reproducido satisfaceque

(a)

(b)

B Eγ∝

ss sE Bγ∝

TEMA 9. LA SEÑAL DE VÍDEO UNED - CURSO 2007-2008

9.32 Tecnología de los Contenidos Multimedia

donde no es uno, es no lineal. Para que el sistema sea lineal debe corregirse la gamma a

la salida de la cámara , tal y como ilustra la figura 9.35.

Así la señal transmitida será tal que El brillo reproducido en el

receptor será entonces , y el sistema será lineal si . Sin embargo

experimentalmente se ha encontrado que se obtiene una mayor calidad si la gamma del conjuntoes de 1.2.

Un valor de estándar para la gamma de los tubos de rayos catódicos es 2.8, por tanto la señaltransmitida debe tener una gamma 0.43.

El barrido de la imagen se realiza mediante líneas que son transmitidas en serie, es decir, secuen-cialmente. Cuando la señal llega al receptor, este debe tener algún medio para reconocer cuandocomienza una línea y cuál es. Es decir, se debe sincronizar la exploración de la imagen hecha porla cámara con el barrido en el receptor. Si la imagen no está sincronizada el brillo de cada puntode la escena se reproduce en unas coordenadas distintas.

La frecuencia de línea es fija por lo que los circuitos del receptor pueden mantener la mismavelocidad de barrido que la cámara a lo largo de la línea. Para conseguir la sincronización bastatransmitir al receptor una señal que indique cuando debe comenzar la línea. Además hay quetransmitir una señal para indicar cuando comienza una nueva imagen. La señal de sincronismosson pulsos, y hay dos tipos: de línea y de campo. Se diferencian porque los pulsos de línea sonmás cortos y los de campo más anchos.

Para transmitirlos se utiliza el mismo canal que para transmitir la imagen. Para insertar el sincro-nismo de línea se aprovecha el intervalo de tiempo que usa la cámara para retroceder desde elborde derecho, final de línea, hasta el izquierdo, principio de la línea siguiente, y el de campo seinserta durante el retroceso desde el borde inferior al borde superior de la pantalla. Para que elreceptor detecte con facilidad los pulsos de sincronismo, éstos se insertan con un nivel de señaldistinto al de la imagen. La amplitud pico a pico del pulso de sincronismo puede variar de un sis-tema a otro.

Con todo ello se dispone de los elementos fundamentales de la señal de vídeo compuesta (SVC).La SVC está formada por la imagen, los sincronismos y algunas líneas vacías. En generaldepende de cada sistema de televisión.

Para el sistema monocromo de 625 líneas y 25 imágenes por segundo utilizado en Europa distin-guen tres niveles: blanco, negro, y nivel de sincronismo. La figura 9.36 muestra la SVC.

ssB Bγ γ×∝

sγ γ×

cE Estγ= s cE Bst

γ γ×∝

s cB Bsγ γ γ× ×∝ 1s cγ γ γ× × =

TEMA 9. LA SEÑAL DE VÍDEO UNED - CURSO 2007-2008

Tecnología de los Contenidos Multimedia 9.33

Figura 9.36 Señal de vídeo compuesta

E1 margen dinámico está normalizado a 1 voltio, tal que el nivel de blanco es 1 Voltio, el denegro 0.3 Voltios y el de sincronismo 0 Voltios. Cuando es necesario un origen para la medida detiempos se toma el flanco descendente del pulso de sincronismo. El sincronismo debe conside-rarse en dos ejes, horizontal y vertical.

El sincronismo de línea o sincronismo horizontal está formado por tres partes:

1.- El pórtico anterior (front porch), de 1.5 µs. Su función es permitir que la señal llegue al nivelde negro desde cualquier punto del margen de vídeo.

2.- Pulso de sincronismo, de 4,7 µs. Es la señal utilizada para el sincronismo. Como su ubica-ción en el tiempo coincide con el final de la línea, el flanco inicial activa el retorno del haz.

3.- Pórtico posterior, de 5.3 µs. Es el tiempo extra para el retorno del haz, con la finalidad deasegurar el correcto comienzo de la nueva línea.

Como el intervalo de tiempo dedicado a una línea es de 64 µs, el reparto son 52 µs de imagen y12 µs de sincronismo. (Obsérvese que los 11.5 µs se redondean a 12).

El circuito de sincronismo horizontal detecta la presencia del pulso mediante un diferenciadorque proporciona una salida que es un pico de tensión ante un flanco de bajada brusco.

El sincronismo vertical también es conocido como sincronismo de imagen, de campo o de cua-dro. Mientras que el sincronismo de línea se da cada 64 µs, el sincronismo de campo se da cadasemi-imagen, es decir, cada 20 ms. Esta compuesto por una forma de onda como la mostrada enla figura 9.37

El pulso de sincronismo está formado por los 5 intervalos de media línea formando el equiva-lente a un pulso de larga duración fácilmente distinguible del sincronismo de línea. La figura9.37 muestra la señal de TV según la norma CCIR de cuadro de 625 líneas y 50 campos.

TEMA 9. LA SEÑAL DE VÍDEO UNED - CURSO 2007-2008

9.34 Tecnología de los Contenidos Multimedia

Figura 9.37 Señal de TV. Norma CCIR de cuadro de 625 líneas y 50 campos.

El circuito para separar los sincronismos de campo de los de línea es un integrador seguido de uncomparador de tensión. La figura 9.38 ilustra el sistema de sincronismo.

Figura 9.38 Sistema de sincronismo.

Los pulsos cortos de sincronismo horizontal a la salida del integrador no alcanzan el umbralmientras que el pulso de sincronismo vertical, debido a su mayor duración, produce a la salidauna señal de mayor nivel.

El pulso de sincronismo vertical está compuesto por cinco pulsos y no por uno sólo de duraciónigual a los cinco porque durante este tiempo es conveniente que el circuito de sincronismo hori-zontal no deje de funcionar. Por ello se necesita un flanco de bajada cada 64 µs. Dado que el ini-

TEMA 9. LA SEÑAL DE VÍDEO UNED - CURSO 2007-2008

Tecnología de los Contenidos Multimedia 9.35

cio del pulso de sincronismo vertical coincide en uno de los dos campos con la mitad de línea, esnecesario un pulso cada 32 µs, en vez de cada 64 µs.

El sincronismo vertical va precedido por 5 pulsos de 2.35 µs, llamados pulsos de preecualiza-ción. Como hay un número impar de líneas, en un campo el tiempo transcurrido entre el últimopulso de sincronismo horizontal y el inicio del pulso de sincronismo vertical sería de 64 µs y enel otro campo de 32 µs. Esto afecta a las condiciones iniciales del integrador y es necesario quesean las mismas en los dos flancos iniciales del sincronismo vertical para que los tiempos seaniguales en ambos campos. Para ello el pulso de sincronismo vertical va precedido de los pulsosde preecualización.

Los pulsos siguientes al pulso de sincronismo vertical se llaman de postecualización y permitenque las condiciones finales del integrador sean las mismas en los dos campos.

Así el intervalo de sincronismo vertical se compone en total de 7.5 líneas y además hay 17,5líneas vacías que no contienen información de imagen. A medida que ha ido avanzando la tecno-logía se han implementado nuevos servicios, como el teletexto, utilizando estas líneas vacías.

La figura 9.39 muestra un sistema con 17 líneas (el número de líneas del sincronismo vertical asícomo otros valores no son reales por claridad).

Figura 9.39 Señal de TV de un sistema con 17 líneas y exploración entrelazada

TEMA 9. LA SEÑAL DE VÍDEO UNED - CURSO 2007-2008

9.36 Tecnología de los Contenidos Multimedia

El ancho de banda de la señal de televisión en banda base va desde la componente continua a lafrecuencia máxima determinada por las variaciones más pequeñas que contenga la imagen ensentido horizontal, ya que la exploración se hace mediante líneas horizontales.

En los sistemas de televisión lo normal es que el tamaño de detalle horizontal y vertical sea elmismo. Para el sistema de 625 líneas, la resolución vertical real es:

donde N = 625, es la relación entre el número de líneas activas y el total (575/625) y K es el

factor de Kell, K= 0.7.

Como la pantalla es más ancha, el número de líneas verticales debe ser siendo

A la relación de aspecto (A = 4/3).

Las líneas deben mostrarse en el tiempo activo de la línea , siendo el tiempo de

línea (64 µs) y el factor de línea activa (52/64).

La figura 9.40 muestra un ejemplo de resolución vertical de 6 líneas, que con la relación deaspecto de 4/3 proporciona a igualdad de detalle una resolución horizontal de 8 líneas.

Figura 9.40 Resolución vertical de 6 líneas.

El número de periodos originados a lo largo de la línea horizontal es igual a la mitad de barrasverticales. Por tanto la frecuencia de la señal es

aN r K× ×

ar

aA N r K× × ×

h lt r×

lr

1nº periodos 2

tiempo

a

h l

Nr KAf

t r= =

×

TEMA 9. LA SEÑAL DE VÍDEO UNED - CURSO 2007-2008

Tecnología de los Contenidos Multimedia 9.37

Como

entonces

Teniendo en cuenta los valores N = 625; = 0.92; K = 0.7; A = 0.75; = 0.812 y =

25 HZ, entonces f=5.163 MHz. En la práctica la señal de salida se filtra paso baja con frecuenciade corte 5 MHZ.

En la actualidad se encuentran normalizados varios sistemas de TV monocromo. Los más impor-tantes son:

1.- El sistema de 525 líneas, con 30 imágenes por segundo, utilizado en USA, Canadá, Japón yotros países.

2.- El de 625 líneas, con 25 imágenes por segundo, utilizado en Europa

Las principales características de estos sistemas y otros obsoletos, como el británico de 405líneas, se muestran en la tabla 9.1.

Tabla 9.1 Características de diversos sistemas de TV monocromo.

1 1h

h imagen

tf N F

= =×

2

2a imagen

l

N r KAFf

r=

ar lr Fimagen

Características Europeo 625 1íneas

Americano 525 1íneas.

Británico 625 1íneas.

Británico 405 1íneas.

Francés 819 1íneas.

N. líneas / imagen 625 525 625 405 819 Frecuencia de Imagen (Hz) 25 30 25 25 25 Frecuencia de campo (Hz) 50 60 50 50 50 Entrelazado 2-1 2-1 2-1 2-1 2-1 Relación de aspecto 4/3 4/3 4/3 4/3 4/3 Frecuencia de línea (Hz) 15625 15750 15625 10125 20475 Periodo de línea (μs) 64 63.5 64 98.8 48.84 Periodo de linea activo (μs) 52 52.45 52 80.42 39.32 N. líneas activas/ imagen 575 483 575 375 751 Res. vertical (líneas) 402 340 402 264 527 Res. horizontal (líneas) 520 422 483 372 786 Modulación AM - - - - - Nivel de negro (%) 75 75 77 35 25 Nivel de borrado (%) 75 75 77 30 25 Nivel de blanco (%) 10 15 20 100 100 Ancho de banda en RF (MHz)

7/8 6 8 5 14

Ancho de banda vestigio (MHz)

0.75

0.75 1.25 1.25 2

Modulación del sonido FM FM FM AM AM Separación intercarrier (MHz)

5.5 4.5 +6 -3 -11

TEMA 9. LA SEÑAL DE VÍDEO UNED - CURSO 2007-2008

9.38 Tecnología de los Contenidos Multimedia

9.4 LA TELEVISIÓN EN COLOR

En la cámara de color el objetivo capta la imagen, que pasa a través de varios espejos dicroicos,de forma que se van separando los tres colores básicos que distingue el ojo humano. Así, se des-compone la imagen en base al sistema de referencia RGB. Al final la luz llega a tres sensores querealizan la fotoconversión de las tres bandas de color y generan tres señales eléctricas. Después,la señal es transmitida. En el receptor se vuelve a componer la imagen, y se representa en la pan-talla. Esta representación se hace por tríadas de puntos, cada uno genera un color primario. Estospuntos son los luminóforos. La estructura de tres luminóforos puede tener varias formas y serepite espacialmente hasta completar toda la pantalla. La figura 9.41 muestra un esquema de losLuminóforos de TV en color.

Figura 9.41 Luminóforos de TV en color.

La reproducción del color se basa en la mezcla por yuxtaposición espacial. Para que sea efectivael espectador debe situarse a una distancia mínima de la pantalla para que el sistema visual inte-gre la luz emitida por los luminóforos de las tríadas.

Para representar una imagen se activan estos luminóforos en función del color que se deba visua-lizar. Por ejemplo, si se debe representar en la pantalla el color amarillo, se activarán los luminó-foros verde y rojo.

En el tubo de rayos catódicos de la TV en color hay tres cañones de electrones, correspondientescada uno a uno de los tres colores primarios, los cuales hacen incidir su haz de electrones sobresu luminóforo correspondiente atravesando una máscara metálica perforada denominada máscarade sombra (shadow mask) colocada antes de la pantalla.

La posición exacta de los haces y su desviación se realiza mediante la aplicación de dos camposmagnéticos mediante sendos pares de bobinas que producen la deflexión de los haces, tanto enhorizontal como en vertical. Desde el punto de vista del color lo importante es que el haz de elec-trones del cañón del rojo incida sobre los luminóforos rojos, y así sucesivamente para los otrosdos cañones, si no es así, la reproducción del color será incorrecta.

TEMA 9. LA SEÑAL DE VÍDEO UNED - CURSO 2007-2008

Tecnología de los Contenidos Multimedia 9.39

Los tres haces de electrones recorren la pantalla sincronizadamente, y las tres señales de colorson las encargadas de controlar la intensidad de cada uno de los haces y así, variar la luminosidaddel color a reproducir en la pantalla.La figura 9.42 muestra un tubo de TV en color.

Figura 9.42 Tubo de TV en color.

En un principio un aspecto fundamental fue la compatibilidad, es decir, la señal transmitida encolor debe poder ser visualizada en monitores en blanco y negro como gama de grises. Tambiénes importante la compatibilidad inversa que consiste en que los receptores en color puedan repre-sentar señales transmitidas en blanco y negro.

Al considerar la compatibilidad no se podrán transmitir las tres componentes RGB, puesto que elreceptor monocromo está preparado para recibir una única señal, la de brillo. Además, la señalque reciba debe ocupar el mismo ancho de banda, o lo que es lo mismo, debe estar ubicada en loscanales en los que se ha dividido el espectro radioeléctrico. Por tanto, el sistema de TV en colordebe transmitir la información de color para los receptores en color, pero al mismo tiempo debeenviar una señal que equivalga a la señal de brillo que está esperando el receptor monocromoocupando la misma zona del espectro.

Esta señal idéntica a la de monocromo es la luminancia, que indica el brillo para cada punto de laimagen. Además, se debe transmitir la información necesaria de color para que los receptores encolor puedan visualizar la imagen original en color. Esta otra señal que lleva asociada la informa-

TEMA 9. LA SEÑAL DE VÍDEO UNED - CURSO 2007-2008

9.40 Tecnología de los Contenidos Multimedia

ción de color es la crominancia. En el análisis del color ya se han detallado las características deestas señales.

Recuérdese que cuando la señal de TV es en blanco y negro la luminancia sale directamente de laluz recibida ya que la lente de la cámara en blanco y negro tiene una respuesta espectral igual a lasensibilidad del ojo. Con el color, la luminancia se obtiene ponderando las señales R, G y B porla sensibilidad relativa del ojo, en cada una de las bandas R, G y B, tal que la señal de luminanciaes:

Y=01299R+01587G+0'114B, Y

Para transmitir las señales de brillo y color hay varias alternativas:

1.- Transmitir la luminancia más dos de las tres componentes RGB. Por ejemplo, Y, R, G, o Y,R, B, etc.

2.- Transmitir la luminancia más dos de las diferencias R-Y, G-Y, B-Y. Por ejemplo, se podríatransmitir Y, R-Y, G-Y o Y, R-Y, B-Y, etc.

Con sólo transmitir dos de los tres componentes de color es suficiente, ya que la tercera se puedecalcular a partir de la luminancia y las otras dos señales de color.

Para analizar cuál de las dos es mejor se supone un ejemplo de compatibilidad inversa. Se emiteuna señal monocromo y es recibida por un monitor en color. Al ser una señal monocromo, ima-gen con un nivel de gris, las tres componentes de color son iguales, R = G = B = k donde k es unaconstante

Con la primera opción se envía la luminancia y dos de color de entre R, G, B. Supóngase que seenvía Y, R, G. La señal sería:

Y = 0'3k + 0'56k + 0'1lk = k; R = k; G = k;

El receptor en color, para recuperar R, G, B, debe aplicar las operaciones inversas, tal que lasseñales decodificadas serán:

que es este caso es

Si este receptor recibe el mismo nivel de gris desde una emisora monocromo, las señales transmi-tidas son:

Y=K; R=0; G=0;

y el receptor en color decodifica:

[ ]0,1∈

( ); ; 0.3 0.59 / 0.11R R k G G k B Y R Gd d d= = = = = − −

.B kd =

( )0; 0; 0.3 0.59 / 0.11 / 0.11 9R R G G B Y R G k kd d d= = = = = − − = =

TEMA 9. LA SEÑAL DE VÍDEO UNED - CURSO 2007-2008

Tecnología de los Contenidos Multimedia 9.41

que es un color azul y no gris como se esperaba.

Con la segunda posibilidad R = G = B = k donde k es una constante.

Por lo tanto la luminancia seguirá teniendo el mismo valor:

Y = 0'3k + 0'56k + 0'1lk = k

y las señales a transmitir serán

Y = K; (R - Y) = 0; (G - Y) = 0

no habiendo diferencias en transmitir las señales desde una emisora en blanco y negro y desdeuna en color.

La decodificación del receptor será:

y para obtener Bd se calcula la señal (B-Y)d a partir de las señales transmitidas (R-Y) y (G-Y).

Para ello se expresa la luminancia de la siguiente forma:

0'3(R-Y)+0'59(G-Y)+0'1 I(B-Y) = 0

por tanto

y Bd = (B-Y)d + Y = B

Para el caso de la señal gris en que R = G = B = k las componentes de color decodificadas serían:

Rd = (R-Y) + Y = k

Gd = (G-Y) + Y = k

Bd = (B-Y) + Y = k

y por tanto el receptor habría decodificado correctamente.

En conclusión las señales que deben utilizarse para transmitir son: la luminancia y dos de lasdiferencias R-Y, G-Y, B-Y

Por último debe determinarse qué dos componentes de color deben transmitirse.

Para ello se analiza una carta de colores como la que se muestra en la tabla 9.2. Una carta decolores es un conjunto de colores primarios y complementarios a distintos grados de saturaciónpara observar los valores de las señales.

( ) 0 '3( - ) 0 '59( - )0.11d

R Y G YB Y +− = −

TEMA 9. LA SEÑAL DE VÍDEO UNED - CURSO 2007-2008

9.42 Tecnología de los Contenidos Multimedia

Puede observarse que las componentes R-Y y B-Y son siempre mayores que la componente G-Y.Esto es preferible teniendo en cuenta la relación señal/ruido.

Por tanto, la señal de crominancia transmitida está formada por R-Y y B-Y.

En conclusión la señal transmitida es

Y, R-Y y B-Y.

Tabla 9.2 Carta de colores.

9.5 TRANSMISIÓN DE LA SEÑAL DE CROMINANCIA

La compatibilidad directa e inversa obliga a considerar la necesidad de ubicar en el canal asig-nado a la televisión en B/N la información de color.

Debe tenerse en cuenta que sólo se puede ocupar el ancho de banda utilizado por la señal mono-cromo. Al realizar un análisis espectral de la señal de vídeo compuesta, se observa que la señalde luminancia es cuasiperiódica, porque no varía mucho de una línea a otra, de período T = 64µs. El espectro de una señal cuasiperiódica está formado por lo que se pueden considerar deltas(no lo son exactamente) situadas en múltiplos de la frecuencia fundamental. Por tanto, el espectrode la señal de luminancia presentará grupos de deltas concentrados en múltiplos de la frecuenciade línea. Además, también se puede comprobar que la señal no varía mucho de un campo a otro,por lo que también se puede considerar cuasiperiódica con período T = 20 ms, lo que en el espec-tro se reflejará en la aparición de rayas separadas múltiplos de 50 Hz (50 campos/seg.) respecto alas secuencias de línea. La figura 9.43 muestra el espectro de la señal de vídeo compuesto.

El espectro está formado por paquetes de componentes centrados en múltiplos de la frecuencia delínea, con grandes espacios libres de energía, situados en torno a múltiplos impares de la mitadde la frecuencia de línea. Además, la amplitud de los paquetes es menor a medida que aumenta lafrecuencia, a menos que la imagen observada se componga de rayas muy finas de niveles de bri-llo distintos y que, por lo tanto, tenga un gran contenido en altas frecuencias, caso poco habitual.

R G B Y R - Y G - Y B - Y Blanco 1 1 1 1 0 0 0 Gris 0.2 0.2 0.2 0.2 0 0 0 Rojo Saturado (muy brillante) 1 0 0 0.3 0.7 -0.3 -0.3 Rojo Saturado (menos brillante) 0.5 0 0 0.15 0.35 -0.15 -0.15 Rojo no Saturado 1 0.5 0.5 0.65 0.35 -0.15 -0.15 Verde Saturado 0 1 0 0.59 -0.59 0.41 -0.59 Azul Saturado 0 0 1 0.11 -0.11 -0.11 0.89 Cyan Saturado 0 1 1 0.7 -0.7 0.3 0.3 Magenta Saturado 1 0 1 0.89 -0.11 0.11 -0.59 Amarillo Saturado 1 1 0 0.89 -0.11 0.11 -0.89

TEMA 9. LA SEÑAL DE VÍDEO UNED - CURSO 2007-2008

Tecnología de los Contenidos Multimedia 9.43

La forma de este espectro viene determinada en gran medida por el barrido y los sincronismos delínea y de campo.

Figura 9.43 Espectro de luminancia.

Por tanto, como la crominancia también está sometida a este barrido, tendrá un espectro pare-cido, con lo que si se suman directamente luminancia y crominancia se solaparán ambas informa-ciones. La solución es modular (desplazar en frecuencia) la crominancia para ubicarla en loshuecos que deja la luminancia. A este proceso se le denomina imbricación de espectros.

El ancho de banda de la señal de luminancia es de 5 MHz. Como el ojo humano es más sensibleal brillo que al color, se comprueba subjetivamente que la crominancia necesita entre 0.5 y 1.5MHz, ya que el ojo humano no es capaz de distinguir más. La figura 9.44 muestra la relación delos anchos de banda.

Figura 9.44 Ancho de banda de luminancia y crominancia..

Para colocar la señal de crominancia en el mismo ancho de banda que ocupa la luminancia, sinque interfiera con ésta debe tenerse en cuenta que la luminancia no puede alterarse por la necesi-dad de compatibilidad. Por tanto tendrá que modificarse la crominancia. Esta modificación con-

TEMA 9. LA SEÑAL DE VÍDEO UNED - CURSO 2007-2008

9.44 Tecnología de los Contenidos Multimedia

siste en una modulación por lo que se necesitará una portadora de color, conocida comosubportadora de color.

Una vez realizada la imbricación de espectros se procederá a la modulación de toda la señal deTV. La figura 9.45 muestra un ejemplo de imbricación, concretamente para el sistema utilizadoen la mayoría de los países europeos, en el que se aprecia cómo la crominancia se encuentramodulada con una subportadora de 4,43 Mhz por lo que su espectro no interfiere al de la lumi-nancia, ya que se compone de paquetes de energía situados en los huecos que deja la luminancia.

Figura 9.45 Imbricación de espectros.

9.6 SEÑAL DE COLOR COMPUESTA.

La señal de color compuesta es la suma de las señales de luminancia y crominancia incluyendolos sincronismos.

El estudio de la señal de color compuesta se basa en las barras de color estándar. Estas son bienconocidas puesto que son las utilizadas en la carta de ajuste. Se ordenan según luminancia decre-ciente: blanco, amarillo, turquesa, verde, magenta, rojo, azul y negro. Se analiza cada barra cal-culando las amplitudes de luminancia y crominancia por separado. Seguidamente se sumanambas amplitudes y se añaden los sincronismos y una señal que se coloca en el pórtico posteriordel sincronismo de línea y lleva información de la subportadora de color. Esta señal se denominaburst.

Para desarrollar la señal de vídeo compuesta se calculan las señales de cada barra al 100% sesaturación y de amplitud. Los cálculos para cada barra son los siguientes.

TEMA 9. LA SEÑAL DE VÍDEO UNED - CURSO 2007-2008

Tecnología de los Contenidos Multimedia 9.45

Para la barra blanca R=1; B=1; G=1. La luminancia es Y = 0.3×1 + 0.59×1 + 0.11×1 =1 y la cro-minancia R - Y = B - Y = 1 - 1 = 0. Como ambas componentes son nulas, la modulación en cua-dratura también es nula.

Para la amarilla R=1; B=0; G=1. La luminancia es Y = 0.3×1 + 0.59×1 + 0.11×0 = 0.89.La cro-minancia es R-Y= 1 - 0.89=0.11, B - Y = 0 - 0.89 = -0.89. Por tanto el módulo de la señal de cro-minancia es

Para la barra turquesa R=0; B=1 ; G = 1, la luminancia Y=0.3×0+0.59×1+0.11×1=0.7 y la cromi-nancia R - Y = 0-0.7=-0'7, B-Y=1-0'7= 0'3 y el módulo de la señal de crominancia es:

Así sucesivamente se calculan todos los valores de las barras. El resultado final se muestra en latabla 9.3.

Tabla 9.3 Parámetros de las barras de color.

Con estos valores se produce una invasión de la zona reservada para los sincronismos y ademásuna sobremodulación en radiofrecuencia. Es decir, algunas barras de color como el amarillo, elmagenta, el azul, etc. superan el margen dinámico permitido para la señal de vídeo compuesta.

Para evitarlo se aplica una transformación a la crominancia, Esta transformación consiste enreducir la amplitud de la crominancia ya que la luminancia no puede modificarse por razones decompatibilidad. Para que no quede muy reducida se establece una solución de compromiso con-sistente en permitir un margen dinámico mayor a la señal de color que a la señal monocroma.Este nuevo margen es un 33 % mayor tanto en amplitudes positivas como negativas, pasando aser el margen dinámico de (0,1) a (-0.33,1.33).

Para reducir la crominancia se utilizan factores de ponderación. Con ellos se consigue que

Y± esté dentro del margen permitido (-0.33,1.33). Con ello en lugar de (B-Y) y (R-Y) se uti-

2 20.89 0.11 0.9C = − + =

2 20.7 0.3 0.76C = − + =

Barras Y B-Y R-Y C Blanco 1 0 0 0 Amarillo 0.89 -0.89 0.11 0.90 Turquesa 0.70 0.30 -0.70 0.76 Verde 0.59 -0.59 -0.59 0.83 Magenta 0.41 0.59 0.59 0.83 Rojo 0.30 -0.30 0.70 0.76 Azul 0.11 0.89 -0.11 0.90 Negro 0 0 0 0

C

TEMA 9. LA SEÑAL DE VÍDEO UNED - CURSO 2007-2008

9.46 Tecnología de los Contenidos Multimedia

lizan estos parámetros modificados por los factores de ponderación a×(B-Y) y b×(R-Y) donde ay b son los factores de ponderación.

Para calcular los factores de ponderación debe tenerse en cuenta que la crominancia y la lumi-nancia no deben exceder el margen dinámico, por tanto

Y+ = 1.33 y Y- = 0.33.

La nueva crominancia con los nuevos factores de ponderación será:

Para calcular los factores de ponderación se sustituyen los datos de las barras azul y roja porqueson las que más sobrepasan el margen dinámico.

Para la barra azul: R = 0 ; G = 0 ; B = 1, Y =0.3×0 + 0.59×0 + 0.11×1 = 0'11, con lo que se debe

cumplir Y- >-0.33. Por tanto 0.11- ≥-0.33 y ≤ 0.44.

Sustituyendo el máximo valor

entonces se obtiene la ecuación

Análogamente para la barra roja R=1; G=0; B=0; Y = 0.3×1 + 0.59 × 0+ 0.11 × 0 = 0.3, con lo

que se debe cumplir que Y - ≥-0.33, entonces ≤ 0.63.

Sustituyendo el máximo valor

entonces

Con esto se tiene un sistema de dos ecuaciones con dos incógnitas, que resolviendo se obtienenlos factores de ponderación a y b:

a = 0.493; b=0.877

C C

( ) ( )2 2C a B Y b R Y= − + −

C C C

[ ] ( ) 220.44 0.89 0.11C a b= = × + × −

[ ] ( ) 2220.44 0.89 0.11a b= × + × −

C C

( ) [ ]2 20.63 0.3 0.7C a b= = × − + ×

( ) [ ]2 220.63 0.3 0.7a b= × − + ×

TEMA 9. LA SEÑAL DE VÍDEO UNED - CURSO 2007-2008

Tecnología de los Contenidos Multimedia 9.47

Con estos factores de ponderación la señal de crominancia se define con unas nuevas componen-tes, denominadas YUV, en las que:

U = a(B-Y) = 0.493 (B-Y); V= b(R-Y) = 0.877 (R-Y)

con lo que el módulo de la crominancia es

Las barras con U = 0.493 (B-Y) y V = 0.877 (R-Y) para un sistema de TV se muestran en la tabla9.4.

Tabla 9.4 Barras de colores del sistema YUV.

Un sistema diferente de barra de colores es el sistema UER, en el que la amplitud de las barras decolor se fija en el 75% de amplitud manteniendo la barra blanca a 100%. La saturación para todoslos casos es del 100% al igual que en el caso anterior. La tabla 9.5 muestra los datos del sistemaYUV para el sistema UER.

Tabla 9.5 Sistema UER.

Como puede observarse en la tabla, dos colores complementarios, como por ejemplo el azul y elamarillo, o el verde y el magenta, tienen fases opuestas; es decir, si el vector que representa unode ellos tiene fase n el otro tiene fase n+180. Sin embargo, la amplitud (módulo) de los vectoresasociados a dos colores complementarios son iguales. Esto refleja el hecho de que al mezclar dos

2 2C U V= +

Barras Y B-Y R-Y U V C Ángulo de

crominancia (líneas NTSC)

Blanco 1 0 0 0 0 0 - Amarillo 0.89 -0.89 0.11 -0.4388 -0.0965 0,90 167º Turquesa 0.70 0.30 -0.70 0.1479 -0.6139 0.76 283º Verde 0.59 -0.59 -0.59 -0.2909 -0.5174 0.83 241º Magenta 0.41 0.59 0.59 0.2909 0.5174 0.83 61º Rojo 0.30 -0.30 0.70 -0.1479 0.6139 0.76 103º Azul 0.11 0.89 -0.11 0.4388 0.0965 0.90 347º Negro 0 0 0 0 0 0 -

Fase de las líneas Barras R G B Y B-Y R-Y C n n+1

Blanco 1 1 1 1 0 0 0 - - Amarillo 0.75 0.75 0 0.664 -0.664 0.085 0.336 167.1 192.0 Turquesa 0 0.75 0.75 0.526 0.224 -0.526 0.474 283.5 76.5 Verde 0 0.75 0 0.440 -0.440 -0.440 0.443 240.7 119.3 Magenta 0.75 0 0.75 0.310 0.440 0.440 0.443 60.7 299.3 Rojo 0.75 0 0 0.224 0.224 0.526 0.474 103.5 256.5 Azul 0 0 0.75 0'086 0'664 -0.086 0.336 347.1 12.9 Negro 0 0 0 0 0 0 0 0 0

TEMA 9. LA SEÑAL DE VÍDEO UNED - CURSO 2007-2008

9.48 Tecnología de los Contenidos Multimedia

colores complementarios de igual amplitud y saturación, el color resultante es el blanco, es decir,un vector de módulo cero.

A partir de esta tabla se obtiene el diagrama vectorial de los colores en función de las componen-tes U y V que definen la crominancia. La figura 9.46 muestra este diagrama.

Figura 9.46 Diagrama vectorial de colores.

9.7 RAZÓN O RELACIÓN DE ASPECTO

La razón o relación de aspecto de la imagen se define como el cociente entre la anchura y laaltura de la ventana. Cuando se definieron los primeros sistemas de televisión comercial enblanco y negro, se eligió una relación de aspecto que coincidía con la utilizada en el cine. En laépoca en que se definió la televisión la relación de aspecto utilizada en el cine era 4:3, es decir, laaltura de la pantalla es tres cuartas partes de su anchura. Este formato es utilizado por todos lossistemas de TV en color analógicos definidos durante los años 50 y 60: NTSC, PAL y SECAM ysólo recientemente se han propuesto algunos sistemas con una relación de aspecto distinta.

Uno de los parámetros directamente relacionados con la relación de aspecto es la medida de ladiagonal que se utiliza para indicar el tamaño de los monitores. Así, un monitor de 29'' (29 pulga-das) es aquel cuya longitud de la diagonal de la pantalla es 29''. Como la suma de los cuadradosde las proporciones entre la altura y la anchura es un cuadrado perfecto, es inmediato relacionarla altura, la anchura y la diagonal del monitor. En efecto, la anchura y la altura pueden determi-narse como 4/5 y 3/5 partes de la diagonal respectivamente, ya que esta última mantiene un fac-tor de proporcionalidad igual a 5.

Así, en un televisor de 29'' la diagonal mide 29''×2,54 cm/pulgada=73,6 cm. Por tanto la altura esde 73,6cm×3/5=44 cm y la anchura mide 73,6×4/5=59 cm.

TEMA 9. LA SEÑAL DE VÍDEO UNED - CURSO 2007-2008

Tecnología de los Contenidos Multimedia 9.49

Las relaciones de aspecto utilizadas en el cine experimentaron un importante cambio con la intro-ducción de los formatos panorámicos.

A principios de los años 50 se empiezan a introducir formatos cinematográficos con relacionesde aspecto más anchas que la 4:3 (1,33:1). En Estados Unidos destaca el formato de la Academia,con una relación de aspecto de 1,85:1; mientras que en Europa se utilizan principalmente dos for-matos con relaciones de aspecto 1,67:1 y 1,75:1. Todos estos formatos mantenían el mismo tipode película que el formato 1,33:1, limitando la apertura vertical y utilizando lentes de menor dis-tancia focal en la proyección para que la anchura de la proyección fuera mayor. Todos estos for-matos se adaptan mejor al campo de visión humano y permiten que se integre mucho más en laescena, aumentando su realismo.

En 1953 se introduce el Cinemascope, que introduce un sistema con lentes anamórficas, queesencialmente consisten en un sistema óptico que durante el registro de la película comprime lasimágenes en la dirección horizontal. Durante la proyección de la película deben usarse unas len-tes inversas, que expanden la imagen en el sentido horizontal, recuperando el aspecto original delos objetos. La relación de aspecto obtenida con este sistema es de 2,35:1. Evidentemente, aun-que no es apreciable por el espectador, la resolución en sentido vertical es mayor que en sentidohorizontal, ya que este último ha sido más ampliado por la lente que el primero. Este método per-mitía seguir empleando el mismo tipo de película e incluso las mismas cámaras y proyectorescon el cambio de lente.

En 1963 apareció el Cinerama moderno (hubo uno anteriormente que no tuvo éxito) con un sis-tema de lentes anamórficas parecidas al Cinemascope, registrando la información en una películade 70 mm de anchura y utilizando una relación de aspecto de 2,75:1. El formato estándar de 70mm había sido introducido previamente en 1955 por Todd-AO Productions con las películasOklahoma! (1955) y La vuelta al mundo en 80 días (1956). La relación de aspecto utilizada en 70mm es de 2,20:1.

El primer sistema de cine envolvente se instaló en 1955 en el parque de atracciones de Disne-yland y combinaba once películas de 16 mm en un sistema de proyección sincronizada parecidoal Cinerama original. Posteriormente el sistema se modificó utilizando nueve proyectores conpelículas de 35 mm.

Algunos sistemas, como el IMAX, con superficies de pantalla extremadamente grandes (IMAX-Port Vell, 600 m2), utilizan relaciones de aspecto donde la altura de la pantalla es comparable osuperior a la anchura.

El gran número de relaciones de aspecto empleadas en los distintos formatos de cine provocó quese iniciaran estudios para analizar cuál es la relación de aspecto ideal. La NHK, organismo deradiodifusión de Japón, durante el desarrollo del sistema de televisión de alta definición analó-gico MUSE, elaboró una serie de experimentos subjetivos para averiguarlo. La BBC y el SMPTE(Society of Motion Picture and Televisión Engineers) desarrollaron experimentos similares enlos que en general se observa que las preferencias del espectador dependen del tamaño de

TEMA 9. LA SEÑAL DE VÍDEO UNED - CURSO 2007-2008

9.50 Tecnología de los Contenidos Multimedia

la imagen. Se observa que cuando el área de proyección aumenta el espectador tiende a exigir unformato más panorámico, lo que justifica el uso de formatos más panorámicos en cine que entelevisión. Si sigue aumentándose el área de proyección, se llega a un punto en que los formatospanorámicos saturan y son poco agradables.

Los resultados obtenidos por la NHK indican que la relación de aspecto que puede considerarsecomo ideal es de 15:9 (1,67:1), que coincide con el formato cinematográfico definido en Europaen la década de los 50. Sin embargo, la relación de aspecto que eligió la NHK, y que actualmentees aceptada por todos los organismos internacionales como idónea en sistemas con definiciónmejorada o alta definición, es de 16:9. Esta relación de aspecto es parecida a la 15:9 y ofreceimportantes ventajas de compatibilidad con distintos formatos cinematográficos y con la relación4:3 utilizada en TV convencional. Es muy parecida al formato de la Academia y al Europeo, porlo que este tipo de películas podrán adaptarse casi sin zonas muertas en la pantalla. Los formatospanorámicos, sobre todo el Cinerama y el Cinemascope son excesivamente anchos y estas pelí-culas deberán transmitirse con bandas negras en la parte superior o inferior de la pantalla o cor-tando los laterales. No obstante, actualmente el Cinerama y el Cinemascope prácticamente ya nose utilizan por lo que, para películas nuevas el único formato que seguirá manteniendo baja com-patibilidad con la televisión 16:9 será el de 70 mm.

Otra de las razones por la que se eligió la relación 16:9 en los sistemas de TV de alta definición osistemas de definición mejorada como el PALplus es que este formato mantiene una relacióncuadrática con el formato convencional 4:3, que puede utilizarse para presentar simultáneamentevarias imágenes 4:3 en una pantalla 16:9.

Así, un espectador puede visualizar simultáneamente hasta 4 programas en formato 4:3, sin quese produzca ninguna pérdida de información. El canal principal ocupa tres cuartas partes de lapantalla mientras en uno de los laterales se presentan tres canales

auxiliares que pueden monitorizarse para ver la programación o esperar un evento concreto.Lamentablemente, aunque este fue uno de los criterios más importantes en la selección del for-mato panorámico de 16:9, prácticamente ningún receptor panorámico incorpora la opción devisualizar cuatro canales simultáneamente, porque aumenta considerablemente el precio alrequerir cuatro sintonizadores y demoduladores distintos. En la práctica, los receptores de gamaalta incorporan, a lo sumo, un doble sintonizador que permite visualizar un canal principal y sólouno auxiliar.

9.8 LA FRECUENCIA DE IMAGEN

En principio basta con unas veinte imágenes por segundo para reproducir el movimiento de losobjetos mientras que, con los niveles de iluminación utilizados en cine y televisión, se requierenmás de 40 imágenes por segundo para que no aparezca el parpadeo. Una solución trivial al pro-blema consiste en elegir un número de imágenes por segundo superior a 40, con lo que se cubren

TEMA 9. LA SEÑAL DE VÍDEO UNED - CURSO 2007-2008

Tecnología de los Contenidos Multimedia 9.51

ampliamente ambas necesidades. Sin embargo el precio del celuloide es un factor considerabledel presupuesto. En televisión el problema afecta al ancho de banda de la señal.

La solución adoptada en el cine también se utilizó para reducir el ancho de banda en la señal detelevisión. En el cine actual se realizan 24 fotogramas por segundo, lo que es más que suficientepara proporcionar una correcta sensación de movimiento continuado. Sin embargo, la presenta-ción directa de estos fotogramas produciría una sensación de parpadeo notable. La solución alproblema consiste en presentar dos veces cada fotograma, con lo que, al doblar la frecuencia dedisparo se obtiene una sensación de uniformidad en la iluminación de la pantalla. Algunos siste-mas de cine han utilizado un número mayor de fotogramas por segundo. Un ejemplo son las pri-meras películas producidas en formato de 70 mm que utilizaron 30 fotogramas por segundo,aunque posteriormente se volvió a los 24 fotogramas convencionales. A principios de la décadade los 80 apareció el sistema Showscan que utiliza 60 fotogramas por segundo. Este sistema seutiliza únicamente para documentales en salas de proyección especiales y ha tenido poco éxito.

La solución adoptada al definir los primeros sistemas de TV comerciales siguió la misma idea.Para simplificar el funcionamiento de algunos subsistemas, la frecuencia de imagen se hizo coin-cidir con la mitad de la frecuencia de red. Por tanto, en países como Estados Unidos o Japón setransmiten 30 imágenes por segundo mientras en Europa se utilizan 25. Ambos valores son sufi-cientes para garantizar un flujo de información que permita reconstruir correctamente el movi-miento de los objetos. La selección de submúltiplos de la frecuencia de red se debeprincipalmente a dos motivos que permitieron simplificar bastante los primeros diseños. Por unaparte, la frecuencia de red se mantiene bastante estable, lo que permite que varios equipos la uti-licen como

patrón o señal de referencia común. Así, cuando en un estudio de TV operan simultáneamentevarias cámaras es necesario que éstas realicen un muestreo sincronizado de las imágenes paraque pueda conmutarse entre distintas cámaras sin que se produzcan pérdidas de información.Otra ventaja derivada del uso de un submúltiplo de la frecuencia de red es que de este modo con-seguía minimizarse el efecto visual que producía la interferencia de la señal de red en la pantallade televisión.

9.9 EL SISTEMA NTSC

El sistema NTSC fue desarrollado en USA por el National Television System Committe (NTSC),y su puesta en mmarcha se produjo en el año 1953. Las características básicas del sistema NTSCson:

• 525 líneas.• Ancho de banda de vídeo: 4 MHz. • Frecuencia de línea: 30 imágenes / segundo × 525 líneas / imagen = 15750 Hz.• Portadora de sonido relativa a la de vídeo: 4'5 MHz• Modulación de la portadora de vídeo: AM. negativa.

TEMA 9. LA SEÑAL DE VÍDEO UNED - CURSO 2007-2008

9.52 Tecnología de los Contenidos Multimedia

• Modulación de la portadora de sonido: FM.• Ancho de banda del canal: 6 MHz.

Los experimentos desarrollados por el NTSC demostraron que el ojo humano tiene en relacióncon el color una mayor resolución en el eje del naranja-cian que en el del magenta-verde. Por ellose estableció tratar con un sistema de coordenadas basado en estos dos ejes, llamando I (In phase)a la componente del color en el eje naranja-cian y Q (Quadrature) a la componente del color en eleje magenta-verde.

La figura 9.47 muestra este sistema de coordenadas. Como puede observarse es el diagrama vec-torial de la tabla 9.46 girados 33º en sentido contrario a las agujas del reloj.

Figura 9.47 Sistema de coordenadas NTSC.

Puesto que el ojo tiene mayor agudeza visual para unos colores que para otros es natural asignarmayor ancho de banda en las zonas donde hay más resolución. Por ello el NTSC limita el anchode banda de la componente I a 1.5 MHZ, que es donde el ojo es más sensible, y limita a 0.5 MHzel ancho de banda de la componente Q, donde el ojo tiene menor resolución.

Las componentes I y Q y las básicas U y V, se relacionan mediante una rotación de 33º, con loque la transformación es:

y en función de los primarios

V = 0.877(R-Y)

U = 0.493(B-Y)

resulta:

cos33º sin 33º 0.84 0.54sin 33º cos33º 0.54 0.84

I U UQ V V

− − = =

TEMA 9. LA SEÑAL DE VÍDEO UNED - CURSO 2007-2008

Tecnología de los Contenidos Multimedia 9.53

Por tanto las tres señales a transmitir en el sistema NTSC son:• luminancia: Y = 0.30R + 0.59G + 0.11B • crominancia, con las componentes:

en fase: I = 0.736(R-Y) - 0.268(B-Y) = 0.60R - 0.268G - 0.32B

en cuadratura: Q = 0.478(R-Y) + 0.13(B-Y) = 0.21R - 0.52G - 0.31B

El problema fundamental del sistema NTSC son los errores de tono. En el decodificador debetratarse la subportadora de color y para ello un oscilador debe sincronizar en fase correctamentecon la fase de referencia transmitida en la señal (en el burst). Si la sincronización se realiza concierto error entonces se producirá una rotación de los vectores recibidos, es decir de los colores.Entonces se producen diferencias entre la fase del color emitido y la del color decodificado en elreceptor, es decir, se produce un error en el tono del color representado. Los receptores NTSCincorporan un control electrónico denominado "Hue" que permite corregir estos errores de fase,utilizando para ello algún color de referencia claramente distinguible e invariante, como el color"de la piel".

Si el error se debe a fallos en el oscilador del receptor entonces es estático y se corrige medianteel Hue, pero si se debe a la propia señal no puede solucionarse. La señal es emitida y recorre unagran distancia con distintas operaciones sobre la misma, y por ello es normal que se den desfasesen la subportadora de color. Además estos desfases no tienen por qué afectar a toda la señal decolor ya que el desfase introducido en cada punto depende de la luminancia de la señal en esepunto. Este es un problema importante porque el ojo humano es muy sensible a estos cambios defase. Es capaz de detectar errores de fase de 5º y para desfases de 10º es muy molesto.

9.10 EL SISTEMA PAL

El sistema PAL PAL (Phase Alternation Line) soluciona el problema de los errores de tono delNTSC invirtiendo (alternando) una de sus componentes de crominancia cada dos líneas.

El sistema fue diseñado por Bruch en 1963 en los laboratorios de Telefunken. Se utiliza enEuropa Occidental, excepto Francia, mientras que puede encontrarse en Sudamérica al igual queel NTSC.

El sistema PAL utiliza R-Y, B-Y (U y V) asignando a las dos componentes de crominancia elmismo ancho de banda, de 1 a 1.3 MHz.

La componente R-Y se va invirtiendo 180º una línea sí y una no de manera que la expresión de lacrominancia modulada en QAM es:

0.84 0.54 0.877( - ) 0.736 0.268 ( - )0.54 0.84 0.493( - ) 0.478 0.413 ( - )

I R Y R YQ B Y B Y

− − = =

TEMA 9. LA SEÑAL DE VÍDEO UNED - CURSO 2007-2008

9.54 Tecnología de los Contenidos Multimedia

en donde el signo ± conmuta cada línea.

El receptor detecta si el color que recibe tiene la componente V invertida o no por una modifica-ción del burst, desfasando la señal de burst una línea a 45º y otra línea a -45º alternativamente.Así las fases son 135º (180º - 45º) para +V y 225º (180º + 45º) para -V. El receptor detecta si setrata de una línea normal o de una línea con la componente V invertida en función de si es +45º o-45º.

Esta variación no afecta a la decodificación del color, porque el receptor sigue tomando comofase de referencia los 180º, ya que está dotado de un filtro que desecha las variaciones rápidas de+ 45º, que tan sólo se usan para detectar qué tipo de línea se está recibiendo.

El vector de crominancia varía lentamente de línea a línea. Por ello si se representan los vectoresde dos líneas sucesivas serán casi idénticos, tal y como se ilustra en la figura 9.48.

Figura 9.48 Vectores de crominancia transmitidos. vector de crominancia transmitido en la línea n. vector de cromi-nancia transmitido en la línea n+l (componente R-Y invertida).

Figura 9.49 Decodificador PAL.

( ) ( ) ( ) ( )0.493 cos 0.877C B Y t R Y sen tω ω= − ± −

TEMA 9. LA SEÑAL DE VÍDEO UNED - CURSO 2007-2008

Tecnología de los Contenidos Multimedia 9.55

La figura 9.49 muestra el decodificador PAL del receptor en que se recuperan las componentesde crominancia. La señal recibida pasa por una línea de retardo y luego se suma y se resta con laseñal sin retardar. Se demodulan las salidas del sumador y restador con lo que U es la compo-nente en fase y V la componente en cuadratura. La señal modulada en la línea n es U + V, en lalínea n+1 es U - V y en la línea n+2 es U + V. Por tanto la señal retardada durante la línea n+1 esU + V y la señal retardada durante la línea n+2 es U - V.

En la línea n+1 la salida del sumador y del restador están formadas por la línea retardada (U + V)y la actual (U - V), sumando y restando respectivamente. Por tanto:

la salida sumador = (U + V) + (U - V) = 2U

la salida restador = (U + V) - (U - V) = 2V

En la línea n+2 con signo cambiado:

la salida sumador = (U - V) + (U + V) = 2U

la salida restador = (U - V) - (U + V) = -2V

y así sucesivamente para las siguientes líneas, con lo que se separan las componentes de cromi-nancia.

Por último se demodula. A la salida del sumador se demodula, con lo que se extrae la compo-nente en fase de la salida del sumador (U), eliminando la componente en cuadratura (V). De estaforma, si la salida del sumador tiene parte de la señal de V, como está en cuadratura, el demodu-lador U lo eliminará. El demodulador de V se comporta de forma equivalente, dejando pasar lacomponente en cuadratura (V) y eliminando la de fase (U).

Al utilizar la crominancia de dos líneas para representar la crominancia de una línea en el recep-tor, se produce una disminución en la resolución vertical del color. Sin embargo, esta disminu-ción no es apreciable si la comparamos con el filtrado paso baja que se realiza sobre lacrominancia (de 5 a 1 MHz), que produce una disminución en la resolución horizontal muchomás significativa que esta pérdida de resolución vertical.

Figura 9.50 (a) Vectores de crominancia transmitidos y recibidos.

(a) (b)

TEMA 9. LA SEÑAL DE VÍDEO UNED - CURSO 2007-2008

9.56 Tecnología de los Contenidos Multimedia

La situación analizada corresponde a una situación ideal en la que se producen errores en latransmisión. Sin embargo, si se produce un error en fase, como los que presentaban problemas enel sistema NTSC, entonces los vectores recibidos son Cn ≡ vector de crominancia transmitido en

la línea n, Cn+1 ≡ vector de crominancia transmitido en la línea n+l (componente R-Y invertida),

Cr,n ≡ vector de crominancia recibido en la línea n, Cr,n+1 ≡ vector de crominancia recibido en la

línea n+l tal y como se ilustra en la figura 9.50.a. La figura 9.50.b muestra los vectores recibidosdeshaciendo la inversión de la componente R-Y del vector Cr,n+1.

Sumándolos se obtiene un vector con la misma dirección que Cn y Cn+1, es decir, en el receptor

se ha corregido el error de fase producido durante la transmisión. Por tanto, un error de fase no setraduce en un error de tono. Sin embargo esto se realiza modificando la saturación, ya que al

sumar Cr,n y Cr,n+1 se obtiene , siendo α el ángulo entre ellos. Por tanto, si se trans-

mite un vector C, y se recibe otro desfasado a para el receptor es como si se recibiera el vector

es decir, el mismo tono pero con una saturación menor o igual dependiendo de a.

Por ejemplo, para α = 10º, la saturación se reduce un 1.5 %.

9.11 EL SISTEMA PALPLUS

El PALplus es un sistema desarrollado para mejorar el sistema PAL, permitiendo una transiciónsuave entre la TV. Clásica y la de alta definición.

La mejora del PALplus consiste en ampliar la razón de aspecto de la imagen de TV de 4:3 a 16:9manteniendo la resolución de 575 líneas activas. De esta forma se consiguen imágenes más apai-sadas, lo que se aproxima mejor al campo visual humano.

El objetivo fundamental de PALplus es conseguir mejorar la calidad de la imagen, apaisándola, ymanteniendo un formato compatible con el clásico.

Los requisitos del sistema PALplus son: • "Reproducción de la imagen en formato 16:9. • "Compatibilidad con el PAL estándar.• "Mejorar la calidad de la imagen. • "Mejorar la calidad del sonido.

En 1990, un grupo formado por cadenas de TV de distintos países como la BBC, UKIB (ReinoUnido), ORF (Austria), SRG (Suiza), ARD y ZDF (Alemania), IRT (Institut für Rundfunktech-nik, Alemania) y fabricantes europeos como Grunding, Nokia, Philips y Thomson, empezaron adiseñar el sistema con el fin de que estuviese en funcionamiento en 1995. La rapidez del desarro-llo permitió que las primeras emisiones en PALplus se realizaran a mediados de 1994.

En España también se han realizado emisiones en PALplus, como por ejemplo en TVE, CanalSur, TV3 y Canal 9.

2 cosCn α

cosCn α

TEMA 9. LA SEÑAL DE VÍDEO UNED - CURSO 2007-2008

Tecnología de los Contenidos Multimedia 9.57

Para que el sistema PALplus aumente la calidad de la imagen la cámara debe tener una superficiefotosensible con razón de aspecto de 16:9 y debe proyectarse en un receptor con una pantalla derazón de aspecto 16:9. Pero además, el sistema debe ser compatible con el PAL existente.

Para cambiar la razón de aspecto de una imagen de tamaño ancho, 16:9, a una de razón 4:3 sepuede optar por dos tipos de adaptaciones, que se ilustran en la figura 9.51.

1.- El formato letterbox. Mantiene la anchura de la imagen de 16:9 en la de 4:3, apareciendodos franjas negras, una arriba y otra debajo de la imagen

2.- El formato panscan. Mantiene la altura de la imagen de 16:9 en la de 4:3 teniendo que elimi-nar zonas laterales de la imagen.

Figura 9.51 Formatos de cambio de una imagen 16.9 a una imagen 4:3

Estas diferentes adaptaciones son las que se utilizan también para pasar una película de cine aimagen de televisión, transformación para la que se utiliza un aparato llamado telecine. La únicadiferencia con respecto al cambio de razón de aspecto es que un telecine transforma imágenes derazones de aspecto que varían desde 2.2:1 hasta 16:9 (razones de la imagen de cine) a imagen deT.V. (razón de aspecto 4:3).

En el sistema PALplus para realizar emisiones en formato 4:3 la opción elegida es el formato let-terbox,

Si la imagen original captada por la cámara 16:9 tiene 574 líneas de imagen (realmente las líneasactivas del sistema PAL son 575, pero una línea se reserva para transmitir información especial),la imagen que se debe transmitir tendrá 430 líneas activas una vez se ha adaptado la razón deaspecto, tal y como muestra la figura 9.52.

Figura 9.52 Número de líneas activas en las imágenes captada y transmitida.

TEMA 9. LA SEÑAL DE VÍDEO UNED - CURSO 2007-2008

9.58 Tecnología de los Contenidos Multimedia

La codificación que realiza el PALplus se basa en transmitir información de vídeo en las líneasnegras que aparecen en la pantalla del receptor PAL. Estas 144 líneas negras servirán al decodifi-cador para volver a extraer la información perdida al adaptar el formato. Así, el receptor PALrepresenta la imagen que ha codificado el sistema PALplus, mientras que el receptor PALplusobtendrá de nuevo la imagen original, tal y como se ilustra en la figura 9.53.

Figura 9.53 Imágenes PALplus vistas en receptores PAL y receptores PALplus.

El proceso de codificación necesita a su entrada una imagen digital ya que las líneas que la com-ponen deben ser guardadas en memoria para poder realizar la codificación. Por tanto, si la ima-gen no está digitalizada hay que digitalizarla previamente según la recomendación 601.

El diagrama de bloques del codificador PALplus se muestra en la figura 9.54.

Figura 9.54 Codificador PALplus.

TEMA 9. LA SEÑAL DE VÍDEO UNED - CURSO 2007-2008

Tecnología de los Contenidos Multimedia 9.59

Las entradas en el proceso de codificación son la señal de luminancia y las dos señales de cromi-nancia U y V. Las 574 líneas de luminancia de la imagen de entrada pasan por un conversor ver-tical cuya salida es una imagen de 430 líneas, denominada buzón. Esta señal pasará a ser la señalde luminancia de la imagen codificada. Las 144 líneas restantes constituyen la señal de helper orealce vertical, que servirá al decodificador PALplus para obtener las 574 líneas de luminanciaoriginales, mientras que en el receptor PAL aparecerán líneas negras presentando una imagen (elbuzón) en formato letterbox. Esta señal de realce se codifica de tal forma que aún habiendo señalen ellas la imagen resultante sean líneas casi negras. Para ello se modula como si fuera señal decrominancia con luminancia nula, es decir, se modula en QAM a la frecuencia de subportadoradel PAL estándar.

Las 574 originales señales de diferencia de color se reducen a 430 líneas, pero al contrario que enel caso de la luminancia, este conversar vertical no obtiene señal de realce, solamente obtieneseñal buzón. Así pues, el decodificador PALplus no podrá recuperar la imagen original, porquela crominancia de la imagen estará compuesta solamente de 430 líneas. Para volver a componerlas 574 líneas de crominancia de la imagen se repetirá una de cada grupo de tres líneas. Estosupone una pérdida de resolución vertical en la crominancia, pero no influye significativamenteen la imagen ya que la crominancia no varía mucho de una línea a otra y tiene mucha más resolu-ción vertical que horizontal debido a que su ancho de banda se redujo a 1.5 MHz, reduciéndosecon ello la resolución horizontal.

La señal de salida del codificador será la señal de vídeo compuesto, formada por la luminancia(buzón de 430 líneas) y la crominancia (señales U y Y moduladas en QAM que son 430 líneasbuzón, más 144 líneas de luminancia moduladas como si fuese señal U.

El decodificador PALplus se muestra en la figura 9.55.

Figura 9.55 Decodificador PALplus.

TEMA 9. LA SEÑAL DE VÍDEO UNED - CURSO 2007-2008

9.60 Tecnología de los Contenidos Multimedia

La señal buzón de la luminancia se obtiene directamente del filtro mientras que el realce hay quedemodularlo ya que viene modulado como señal de crominancia. Una vez que se han obtenidolas señales buzón y realce, se introducen como entradas en un conversor vertical inverso al delcodificador y se vuelven a obtener las 574 líneas de la imagen original.

La crominancia se obtiene demodulando las 430 líneas donde existe crominancia obteniéndoseen las salidas de cada demodulador las 430 líneas buzón de las señales U y V. Introduciendoestas señales en un conversor vertical inverso al del codificador se obtienen 574 líneas de imagenaunque no con la misma resolución que la original, ya que no existe señal realce para las señalesdiferencia de color.

La función del conversor vertical en transmisión es convertir las 574 líneas, que componen laimagen original, en 430 líneas de buzón y 144 líneas de realce, es decir, de cada 4 líneas deentrada obtiene a su salida 3 líneas de buzón y una de realce. Ambos tipos de líneas se obtienencomo combinación de las líneas de entrada. Las líneas buzón deben ser una representación de laimagen original y se obtienen como sumas de las de entrada (filtrados paso baja) mientras que laslíneas de realce se calculan como restas (filtrados paso alta).

En general en la entrada del conversar vertical, tanto en el caso de la luminancia como en el de lacrominancia, se tienen señales que no varían rápidamente por lo que la imagen buzón será muyparecida a la original pero en formato 4:3, por tanto el receptor PAL estándar que no puede reali-zar la decodificación PALplus no perderá mucha resolución vertical por el promediado entrelíneas. En el caso del realce, al no existir muchas diferencias entre una línea y otra, la señal obte-nida será de muy bajo nivel (líneas "negras"). El conversor vertical es el bloque clave del codifi-cador PALplus para conseguir la compatibilidad con el PAL estándar ya que consigue unaimagen como la original pero con razón de aspecto 4:3 (buzón) y en formato letterbox.

En recepción, la función de transferencia del conversor vertical es la inversa que la de transmi-sión, es decir, se obtienen 574 líneas a partir de 430 de buzón y 144 de realce en el caso de laluminancia. En el caso de la crominancia obtiene 514 líneas a partir de las 430 del buzón.

Con el sistema PALplus los espectadores pueden beneficiarse de una resolución máxima en losreceptores 16:9. Además este nuevo sistema ha introducido el Color plus que supone una mejorano sólo en los receptores PALplus sino también en los receptores PAL estándar.

En el receptor PAL estándar las señales de luminancia y crominancia se separan usando dos fil-tros, con uno paso baja se obtiene la luminancia y con uno paso alta o paso banda (si previamenteno se ha eliminado el sonido) la crominancia. Esta forma de separar ambas señales da lugar a dosproblemas: el cross-color que consiste en que luminancia se introduce en la crominancia, y lacross-luminancia, crominancia interferente en la luminancia. El peor de estos dos efectos es elcross-color ya que es muy apreciable cuando en la escena hay detalles muy pequeños, es decir,altas frecuencias de luminancia se introducen en las bajas frecuencias de crominancia.

TEMA 9. LA SEÑAL DE VÍDEO UNED - CURSO 2007-2008

Tecnología de los Contenidos Multimedia 9.61

Existen dos formas de funcionamiento del color plus según de donde provenga la imagen: si laimagen proviene de un telecine (imagen en modo cine), el proceso seguido recibe el nombre decolor plus fijo, mientras que si la imagen proviene de una cámara (imagen en modo cámara), seimplementa el color plus adaptado al movimiento (MACP).

El objetivo del color plus es separar limpiamente la crominancia y la luminancia dando sentidoasí a la imbricación de espectros que se hizo en transmisión. Para ello el sistema se basa en elhecho de que la información de dos líneas sucesivas en pantalla no cambia mucho. Si la línea npertenece al primer campo de una imagen, la línea n+312 será la línea contigua físicamente enpantalla a la n pero perteneciente al campo segundo, es decir separada en el tiempo 312 líneas. Siambas líneas llevan la misma información de luminancia y crominancia la única diferencia entreellas será la fase de la subportadora, estando la fase de la misma para un punto de la línea n enoposición con la de un punto de la línea n+312.

Este proceso es eficiente si la luminancia y la crominancia no varían de un campo a otro, queocurre cuando no existe movimiento de un campo a otro como en el cine. Este proceso se deno-mina color plus fijo y se implementa con un filtro peine.

Si existe movimiento entre un campo de la imagen y otro, es decir en el modo cámara, no esimplementable el color plus fijo. Sin embargo, la crominancia y la luminancia pueden separarsemejor que en el PAL estándar porque se eliminan las altas frecuencias de luminancia en el trans-misor, que se imbricarían en el espectro de la crominancia con lo que pueden separarse perfecta-mente con el sistema de filtros implementado en el PAL estándar. Por esta razón el sistemaPALplus mejora la calidad de la imagen no sólo con receptores PALplus, sino también en el tele-visor PAL convencional. Este proceso en el que existe movimiento se denomina color plus adap-tado al movimiento.

9.12 SISTEMAS DE VÍDEO EN COMPONENTES

La generalización de la idea de sustituir las componentes de color RGB por la luminancia y lasseñales diferencia de color es la base para la codificación del color en los sistemas de componen-tes de color, como por ejemplo los sistemas de televisión y de registro de señal de vídeo ensoporte magnético. Destacan el sistema de alta definición analógico japonés MUSE, que fun-ciona desde finales de los 80; el D2-MAC, que fue el fracasado intento europeo para la definiciónde un formato analógico con definición; la norma digital 4:2:2, sistema digital para el registro,producción e intercambio de material entre estudios; los sistemas de registro de señal sobresoporte magnético analógicos como el Betacam o los digitales como los sistemas D1, D2,DVCam, DVCPro; el sistema MPEG-2, estándar para la compresión de imágenes digitales; etc.

La tendencia de los sistemas de televisión y vídeo es realizar una codificación en componentes delas señales de color. Todos estos sistemas son incompatibles con los sistemas de televisión analó-gicos convencionales como el NTSC o el PAL. La codificación del color en componentes admitetambién diversas variantes dependiendo del sistema considerado pero mantienen en común que

TEMA 9. LA SEÑAL DE VÍDEO UNED - CURSO 2007-2008

9.62 Tecnología de los Contenidos Multimedia

las señales de luminancia y las de diferencia de color pueden ser fácilmente separadas sin la apa-rición de cruces o interferencias entre ellas. En los sistemas analógicos la luminancia y las seña-les diferencia de color normalmente están multiplexadas en el tiempo.

La figura 9.56 muestra la configuración del sistema MUSE. La señal de luminancia ocupa 2/3 deltiempo de línea activa y las señales diferencia de color se transmiten en líneas alternas durante el1/3 del tiempo restante.

Figura 9.56 Multiplexación temporal de las componentes de color

Esta codificación aprovecha la menor resolución del sistema visual a las componentes de colorcon dos técnicas. Primero las señales diferencia de color de una línea se comprimen en el tiempoy tienen una duración la mitad que la señal de luminancia. Entonces para un ancho de bandadeterminado las componentes de color tienen una resolución horizontal igual a la mitad de laluminancia. En segundo lugar la resolución vertical de las señales diferencia de color también sereduce a la mitad, ya que la señal (R-Y) sólo se transmite en las líneas impares y la (B-Y) en laspares. Para decodificar el color asociado a la línea k se utiliza sistemáticamente la información delas componentes de color correspondientes a la línea k-1 y a la línea k.

La codificación utilizada en un sistema de registro de señal de vídeo analógico sobre soportemagnético tiene características similares. En el sistema Betacam la señal de luminancia y lasseñales diferencia de color se registran en pistas adyacentes, por lo que su separación también essimple y no existen cruces entre las señales. Las dos componentes de color se comprimen en unfactor 2 respecto la luminancia y se registran en la misma pista. El ancho de banda asignado a laluminancia es de nuevo el doble que el de las componentes de color.

En el S-Vídeo la componente de luminancia y las componentes de croma se proporcionanmediante cables separados en paralelo. El S-Vídeo se utiliza como un formato doméstico para lainterconexión entre equipos de vídeo analógico. Prácticamente todos los receptores modernosincorporan una entrada en S-Vídeo que permite conectarlos directamente con una cámara devídeo o un magnetoscopio. La señal en S-Vídeo, al tener las componentes de luminancia y color

TEMA 9. LA SEÑAL DE VÍDEO UNED - CURSO 2007-2008

Tecnología de los Contenidos Multimedia 9.63

separadas, proporciona una mayor calidad de imagen que la señal de vídeo compuesto. Otra posi-bilidad es interconectar usando directamente las tres componentes de color R, G y B por sepa-rado. En los equipos profesionales es habitual utilizar este

tipo de interconexión. En los modelos domésticos el Euroconector permite la interconexión entredistintos equipos de vídeo mediante la transmisión de las tres componentes de color por separadoy en paralelo.

9.13 FORMATOS DE GRABACIÓN DE VÍDEO ANALÓGICO

Mientras que el cine ha mantenido los mismos formatos básicos de 35mm y 16mm por más decien años. En las últimas décadas el video ha evolucionado a través de unos 20 formatos diferen-tes e incompatibles.

A continuación se indican las características básicas de los dos sistemas más utilizados por elmercado de consumo. La mayoría de los consumidores están familiarizados con los formatos de8mm y el VHS, antes de estos hubo un formato popular, el Betamax, que fue lanzado al mercadopor Sony Corporation en 1976, y posteriormente fue desplazado por el VHS. Fue el primer for-mato comercial aceptado y usado ampliamente en el hogar.

El sistema VHS (VIDEO HOME SYSTEM) desarrollado por JVC ocupa en la actualidad el pri-mer puesto en el mercado de video domestico. Tiene una calidad razonable y cumple todos losrequisitos de flexibilidad que exigen los consumidores. Desde su aparición se ha extendido ymejorado, manteniendo su compatibilidad, incluyendo características tales como, larga duración,(Long Play), sonido en alta fidelidad (Hi-Fi) y realzado de imagen (HQ).

El máximo aprovechamiento del sistema VHS se obtiene separando los filtros pasobanda de loscomponentes de luminancia (Y) y de crominancia (C) de la señal de vídeo antes de la grabación.La señal de luminancia no puede ser grabada directamente porque su espectro se extiende desdelos 20 Hz hasta 5.5 MHz, ocupando 19 octavas, excediendo el máximo de 10 del mismo mediomagnético. Esto se soluciona mediante la compresión de la señal.

Los limites de la desviación determinan el ancho en octavas. El sistema VHS especifica 3.8 MHzpara la cresta de los impulsos de sincronismo y 4.8 MHZ para el nivel de blanco de la señal deluminancia reproducida. Esta se extiende alrededor de 1.4 MHZ hasta menos de 5.5 MHZ consi-guiendo comprimir hasta menos de dos octavas.

La utilización de un modulador asegura una excelente señal, ya que lleva la cinta hasta la satura-ción para cualquier señal y sin polarización, para compensar la no linealidad de transferencia dela cinta.

Para recobrar la luminancia es necesario grabar las bandas laterales, es decir aquellas cuya ampli-tud supere en un 1.5 % a la portadora sin modular. Si la frecuencia modulada es mas alta, se

TEMA 9. LA SEÑAL DE VÍDEO UNED - CURSO 2007-2008

9.64 Tecnología de los Contenidos Multimedia

recorta la señal con un filtro pasa banda a 3.5 MHz y atenuación de 20db, de esta forma se evitaun empañamiento de la imagen producida.

Los incrementos de amplitud de los componentes de alta frecuencia de la señal "Y" deben serlimitados para evitar la sobredesviación del modulador. Los circuitos recortadores de negro yblanco limitan la excursión de señal excitadora del 40 % a 90 % respectivamente.

La componente de la entrada de video compuesto se extrae de un filtro en 443 MHZ o 357 MHz,y se graba en señal QUAM convertida a 629.953 KHz. La polarización es convenientementesuministrada por la señal de FM con la cual se mezcla antes de ser aplicada a las cabezas de gra-bación. Se necesita un buen contacto cabeza-cinta para conseguir una relación señal de croma-ruido razonable durante la reproducción. Los avances tecnológicos en el campo de video y en lafabricación de cintas de grabación hicieron posible el perfeccionamiento de la especificaciónVHS.

JVC desarrolló el sistema SUPER-VHS cuya versión PAL se anuncio en enero de 1988. En elsistema S-VHS se varia la frecuencia de la portadora de FM consiguiendo un ancho de banda deluminancia mayor y como resultado un incremento en la resolución horizontal hasta 400 líneas.La frecuencia se extiende hasta el 110% y el 70% respectivamente.

La velocidad lineal de la cinta, la velocidad de grabación, y el trazado de las pistas permaneceninalterados para mantener la compatibilidad con el sistema VHS estándar, pero en el sistema S-VHS se produce un incremento en la densidad de grabación. Se emplean cabezas de video dematerial amorfo. Estas cabezas tienen entre hierros obtenidos con tecnología láser, el núcleo esde estructura laminar que tiene la ventaja de mejorar las frecuencias mas altas de la banda,debido a la reducción de las perdidas por corrientes circulares. El diseño de baja fricción entre lacinta y el tambor reduce el ruido por contacto entre la cinta y la cabeza en 2 o 3 db, con referenciaa las cabezas de ferrita.

El incremento de la densidad de grabación exige unas especificaciones de la cinta más rigurosas.Parece lógica la cinta de metal, igual que el sistema SONY 8 MM, pero JVC lanzó al mercado lagama de cintas de cobalto con recubrimiento de óxido ferrico para asegurar la compatibilidadentre los dos sistemas y sus familias de cintas. El tamaño de las partículas magnéticas es menorpara las cintas S-VHS con el fin reducir el ruido de modulación. El material de la cinta debe serantiestático, pues el polvo y la suciedad son los causantes de casi todas las perturbaciones de lacinta.

Las cintas S-VHS pueden ser utilizadas con el estándar VHS, pero algunos equipos no puedenrealizar un borrado totalmente correcto de la cinta debido al alto grado de coercitividad de lamisma, además de no obtener mejora, el precio de las cintas S-VHS es significativamente máscaro. Los sistemas de camcoders tienen un conector "S", que no significa super sino SEPARATE- VIDEO .Esto significa que separa las señales de luminancia (Y) y croma (C) permitiendo unacopia de alta calidad. SEPARATE - VIDEO es un sistema de conexión y SUPER-VIDEO, es unsistema de grabación.

TEMA 9. LA SEÑAL DE VÍDEO UNED - CURSO 2007-2008

Tecnología de los Contenidos Multimedia 9.65

Para reducir el tamaño de la cámara, una versión más pequeña de las cintas de VHS y S-VHS seintrodujo al mercado el VHS-C y el S-VHS-C (por compacto). Estos fueron diseñados para com-petir con el formato de 8 mm que comenzó a encontrar aceptación entre un gran número de con-sumidores.

Cuando el Betamax fracasó, el 8mm fue lanzado al mercado. Este formato en parte trata de tomarventaja de la fama del 8mm que fue un formato de cine muy utilizado para películas caseras. (Dehecho, Eastman Kodak fue uno de los creadores del 8mm para video).

El tamaño reducido de la cinta significa que las cámaras pueden ser incluso más pequeñas que lasde VHS, una característica que es muy atractiva para aquellos que han pasado años arrastrandosus cámaras de VHS tamaño familiar. La calidad del 8mm es similar a la del VHS, lo que signi-fica que el formato no está en la categoría de formato profesional.

Al tiempo que se introdujo en S-VHS Sony lanzó el Hi8, una versión de mayor calidad que el8mm. Este también se utiliza como formato de adquisición y bajo óptimas condiciones puedenproducir video de calidad profesional. Sin embargo no puede competir con la presente genera-ción de formatos digitales.

En cuanto a los formatos profesionales destaca el Betacam. La corporación SONY, pionera en eldesarrollo del videocasete Betamax de media pulgada para uso casero, introdujo el Betacam en1982. Esto significó que por primera vez una cámara y un grabador pudieron integrarse en unasola unidad. Nació la camcorder.

En 1987 lo mejoraron y lo bautizaron Betacam SP (Superior Performance) de funcionalidadsuperior. La versión mejorada logró exceder los niveles de calidad del formato de una pulgada detipo C, y por esta razón algunas instituciones comenzaron a utilizar el Betacam para produccio-nes de estudio y de exteriores. El Betacam ha pasado por varios procesos de mejoramiento que lehan proporcionado numerosas características, así como mejor calidad de audio y video.

Al mismo tiempo que el BETACAM era introducido en el mercado, Matsushita (Panasonic) yRCA introducían un formato de casete de cinta de media pulgada con calidad de transmisión,basado en su popular casete de VHS. Conocido como el formato M por la forma en que la cintaestá enhebrada en el mismo.

Pocos años después el formato M fue mejorado notablemente con la introducción del MII. Asícomo el Betacam SP, la calidad del video M-II excede al de VTR de una pulgada del tipo C.

Luego Panasonic tomó la vanguardia al desarrollar una serie de formatos de video-tape digitalconocido como el formato "D".

9.14 LA TELEVISIÓN DIGITAL

En el principio básico de la televisión digital se encuentra el muestreo. Las diferentes etapas demuestreo de la escena, muestreo espacial, permiten representarla como una señal analógica que

TEMA 9. LA SEÑAL DE VÍDEO UNED - CURSO 2007-2008

9.66 Tecnología de los Contenidos Multimedia

proporciona información sobre las componentes de luminancia y color en cada punto del espacioy del tiempo. La digitalización de señales analógicas aporta considerables ventajas como porejemplo protección frente a ruidos, facilidad para encriptar las señales, posibilidad de procesardigitalmente los datos, etc

Si se aplica un muestreo temporal de esta señal y se codifica cada una de las

muestras con una palabra binaria, se obtiene una versión digital de la escena que permite trata-mientos con procesadores digitales o su transmisión mediante sistemas de

comunicación digitales.

La forma más inmediata de digitalizar una señal de televisión es tomar muestras equiespaciadasen cada una de sus líneas. En señal de blanco y negro, si las muestras se sincronizan con el iniciode las líneas, se obtendrá un muestreo de la imagen con estructura rectangular, en la que cadamuestra representa los valores de luminancia obtenidos sobre una retícula rectangular y la ima-gen puede tratarse como una matriz que se direcciona mediante filas y columnas. Estas muestrasse denominan elementos de imagen o píxeles (de picture elements).

El número de muestras que se toman en cada línea de la imagen debe estar en consonancia con elnúmero de líneas para que la resolución en ambas direcciones tenga valores parecidos. Por tanto,en principio en un sistema como el europeo que utiliza 575 líneas activas, el número de muestrasde cada línea debería ser (4/3) 575 = 766 muestras, donde se multiplica la relación de aspectopara tener en cuenta

que la imagen no es cuadrada. Entonces, la distancia física entre los pixeles

es idéntica en ambas direcciones, hecho que se identifica mediante la denominación de píxel cua-drado.

Sin embargo, hay sistemas que muestrean la señal de vídeo a una velocidad distinta, obteniendoun número de muestras por línea que puede ser mayor o menor que el anterior. En estos casos sedice que se trabaja con sistemas con elementos de imagen (píxeles) rectangulares.

Además, es necesario determinar el número de bits con el que debe codificarse cada muestra, o loque es lo mismo, el número de posibles niveles de luminancia que deben asignarse a la señal paraque el sistema visual humano sea incapaz de distinguir entre los niveles de gris originales y loscuantificados. Este proceso se denomian cuantificación.

Para determinar este parámetro existen diferentes métodos. El más evidente es el método experi-mental en el que se presentan distintos tipos de imágenes a espectadores que valoran cuál es elnúmero mínimo de niveles a partir del que no se aprecia ninguna mejora en la calidad de las imá-genes. Esta experiencia suele dar que el número de niveles de gris se sitúa entre los 45 y 60. Portanto para codificar correctamente las imágenes se necesita un mínimo de 6 o 7 bits. Debido aque toda la estructura de las

TEMA 9. LA SEÑAL DE VÍDEO UNED - CURSO 2007-2008

Tecnología de los Contenidos Multimedia 9.67

memorias están basadas en palabras de 8 bits, se decidió cuantificar los niveles de luminanciacon 8 bits, con lo que se obtiene un total de 256 niveles posibles, que cubren perfectamente lasnecesidades del sistema visual.

En el caso en que se trate de imágenes en color, puede optarse por muestrear las tres componen-tes de color RGB o bien la luminancia y las señales diferencia de color. En el primer caso, laresolución de las tres imágenes debe ser la misma y cada muestra de las componentes de color sesuele cuantificar con 8 bits. En el caso de tomar la luminancia y las señales diferencia de color, eshabitual muestrear estas últimas con una retícula de muestreo que incluya un menor número demuestras espaciales debido a la menor resolución del sistema visual al color. Normalmente lareducción es en un factor 4,

que supone que se utilizan la mitad de filas y columnas. Tanto las muestras correspondientes a laluminancia como a las señales diferencia de color suelen muestrearse con 8 bits.

Tradicionalmente la resolución de los sistemas analógicos se ha expresado en líneas horizontalescuyo número está directamente relacionado con el ancho de banda de

la señal de vídeo. En el video digital sin comprimir el concepto de "frecuencia de muestreo"(sampling rate ) es sinónimo de ancho de banda. En el estándar digital sin compresión "D-1",ITU-R BT.601-4, la frecuencia de muestreo para la luminancia es de 13.5 Mhz, mientras que lade crominancia es la mitad, 6.75 Mhz. Hay dos componentes de crominancia, la luminanciamenos rojo y la luminancia menos azul, Cr y Cb. Con ello la señal digital se compone de igualcantidad de datos de luminancia y de crominancia. Esto se expresa con la relación famosa 4:2:2,donde el 4 corresponde a la proporción de luminancia. Se podía haber dicho 2:1:1 pero no dejamargen para expresar reducciones de color.

El teorema de Nyquist establece que la frecuencia de muestreo de cualquier señal, debe ser, almenos, el doble que la de la máxima señal a codificar. Por ejemplo, en audio se maneja unabanda auditiva de 20 Hz a 20 KHz. Aplicando este teorema, la frecuencia de muestreo debe ser eldoble que la máxima, es decir, 40.000 Hz. De hecho, la frecuencia de muestreo para audio digitales 44.1 Khz.

Por tanto, para el estandar D-1 (4:2:2), el ancho de banda máximo de luminancia es 13.5 / 2 =6.75Mhz, y para la crominancia la mitad de su frecuencia de muestreo 3.375 Mhz. Usando filtrosdigitales muy potentes se puede dejar el ancho de banda práctico de luminancia en 6.0Mhz y elde crominancia en 3.0 Mhz. El estandar D-1 es un formato digital de calidad máxima con un granancho de banda, sin comprimir, que requiere unas capacidades de almacenamiento enormes.

DV [y miniDV] muestrea la señal de luminancia igual que el estandar D-1, a 13.5Mhz, mientrasla de crominancia a la mitad del D-1, 1.5 Mhz . Por tanto, para el sistema NTSC la relación que-daría en 4:1:1, con muestras de crominancia tomadas una vez cada cuatro muestras horizontalesde luminancia.

TEMA 9. LA SEÑAL DE VÍDEO UNED - CURSO 2007-2008

9.68 Tecnología de los Contenidos Multimedia

El DV para el PAL usa un muestreo 4:2:0, tomando el valor medio de la señal de crominanciaentre sucesivas líneas de luminancia. El 4:2:0 no significa que la señal de croma Cb no se mues-trea, sino que es una manera de expresar la alternancia en el muestreo. De acuerdo con el Consor-cio Japonés de Vídeo Digital, 4:2:0 proporciona mejor percepción de la imagen. PanasonicDVCPRO usa 4:1:1 tanto para NTSC como para PAL. El ATSC MPEG-2 formato para DTV,[DVD] y HDTV, usa 4:2:0. La figura 9.57 muestra estos formatos.

Figura 9.57 Comparación del muestreo del color 4:2:2, 4:1:1, y 4:2:0.

La reducción en la frecuencia de muestreo del color en DV, le lleva a un valor práctico de1.5Mhz. Actualmente, todos los sistemas digitales deben pasarse a analógico para permitir suteledifusión.

9.15 FORMATOS DE TELEVISIÓN DIGITAL

Los formatos digitales más extendidos actualmente en estudios de televisión, y que pueden con-siderarse como el punto de partida de los distintos equipos para el registro o la transmisión digi-tal, son las normas 4:2:2 y 4:2:0, que definen la conversión a señales digitales tanto para lossistemas de 525líneas a 60 Hz como para los sistemas de 625 líneas a 50 Hz, manteniendo ungran número de parámetros comunes entre ambos formatos.

En 1982, el ITU-R (anteriormente CCIR), desarrolló un conjunto de especificaciones en su reco-mendación 601 para las señales de televisión digital en estudios de televisión o de producción devídeo. El objetivo de esta recomendación era facilitar el intercambio de programas a escala inter-nacional. Las recomendaciones definen muchos parámetros comunes entre el formato americano

TEMA 9. LA SEÑAL DE VÍDEO UNED - CURSO 2007-2008

Tecnología de los Contenidos Multimedia 9.69

y europeo con el fin de que los fabricantes puedan incluir varios módulos comunes en equipospara 525 y 625 líneas. El uso de este formato permite la interconexión entre distintos equiposdigitales.

Existen básicamente dos variantes básicas: la 4:2:2 y la 4:4:4. Los dígitos indican la proporciónentre las muestras dedicadas a la luminancia y las dedicadas a las componentes de color. El sis-tema más utilizado es el 4:2:2, en el que se codifican la luminancia y las señales diferencia decolor. El formato 4:4:4 puede utilizarse también con componentes RGB.

La cantidad de datos binarios debida a la digitalización de una señal de vídeo es enorme. En elestándar 4:2:2 la luminancia se muestrea a una frecuencia de 13.5 MHz tomando 8 bits pormuestra, lo que implica 108 Mbps. Además, cada una de las señales de diferencia de color semuestrean a 6.75 MHz, nuevamente con 8 bits por muestra, lo que produce otros 108 Mbps. Entotal 216 Mbps asignados exclusivamente a la señal de vídeo digital, sin tener en cuenta las com-ponentes de audio o de información adicional. Este flujo de datos puede ser soportado por losequipos de un estudio profesional pero es inaceptable para la transmisión directa de televisión.Por ello, en la televisión digital es fundamental aplicar técnicas de compresión, que se analizaránen el capítulo dedicado a ello.

Las dimensiones de la componente de luminancia en los formatos 4:4:4 y 4:2:2 son de 720 576en los sistemas de 625 líneas a 50 Hz y de 720 480 en los de 525 líneas a 30 Hz. La diferencia enel número de filas entre ambos sistemas se debe a los estándares analógicos. En el sistema de 625líneas sólo son activas 575 que se reparten entre los dos campos. Esto da lugar a un total de 287,5líneas activas por campo.

Al digitalizar cada uno de los campos, las medias líneas deben tomarse como una fila completade la imagen digital, por lo que hay un total de 288 líneas por campo, es decir, 576 (288x2) líneaspor imagen. Para el sistema de 525 líneas puede aplicarse un razonamiento similar.

Figura 9.58 Formato 4:4:4

TEMA 9. LA SEÑAL DE VÍDEO UNED - CURSO 2007-2008

9.70 Tecnología de los Contenidos Multimedia

Tal y como se ilustra en la figura 9.58, el formato 4:4:4 toma una muestra de las dos componen-tes de color por cada muestra de luminancia. Esto significa que los tamaños de las matrices dife-rencia de color coinciden con los de las matrices de luminancia. En cambio, en el sistema 4:2:2,las componentes de crominancia se submuestren en un factor 2 dentro de cada fila. Esto significaque los tamaños de las matrices de crominancia son 360x576 en los sistemas 625 líneas a 50 Hzy de 360x480 en los de 525 líneas a 60 Hz. En este formato sólo se reduce la frecuencia de mues-treo en el sentido horizontal. El número de muestras de crominancia en el eje vertical sigue coin-cidiendo con el de la componente de luminancia, de modo que la frecuencia de muestreo de lainformación de croma se mantiene constante a 6,75 MHz.

El formato 4:2:0 es una simplificación del 4:2:2 que se utiliza en un gran número de aplicacionespara el registro de vídeo en soporte magnético o en disco duro. Es el formato de entrada utilizadoen la versión de MPEG-2 que se utiliza en la transmisión de televisión digital (Main Level, MainProfile, MP@ML). Se obtiene reduciendo a la mitad la frecuencia de muestreo de las componen-tes de crominancia en el sentido vertical, con lo que se iguala la densidad de muestras de cromi-nancia en las dos direcciones. Las muestras de croma se obtienen a partir de las muestras delformato 4:2:2, promediando dos filas consecutivas. Con el formato 4:2:0 el tamaño de las matri-ces de crominancia se reduce a 360x240 para el estándar 525 líneas a 60 Hz y a 360x288 para625 líneas a 50 Hz, y las matrices de luminancia se mantienen con el mismo tamaño que en losformatos 4:4:4 o 4:2:2.

Además del formato 4:2:2 y el 4:2:0, también pueden encontrarse el 4:1:1 y el 4:1:0. El formato4:1:0 fue utilizado durante algún tiempo por Intel en el DVI (Digital Video Interactive), pero enla actualidad tanto este como el 4:1:1 están en desuso.

En aplicaciones en las que no es necesaria una gran calidad de la imagen de vídeo digital, comopor ejemplo los primeros ficheros AVI de vídeo para Windows o el MPEG-1, puede reducirsesobre el tamaño de la imagen. Así se consigue una importante reducción respecto a la tasa de bitsoriginal

Uno de los formatos de vídeo reducido más populares es el SIF (Source Intermediate Format)que consiste en un submuestreo de un factor 2 del formato 4:2:0 que se aplica tanto a las compo-nentes de luminancia y de crominancia. Los tamaños de las matrices de luminancia para el for-mato SIF son de 360x288 para el estándar de 625 líneas y 360x240 para el 525 líneas. Lasmatrices de crominancia también se submuestrean en un factor 2 en cada dirección respecto lasmatrices de crominancia del 4:2:0, 180x144 para 625 líneas y 180x120 para 525. También se rea-liza una reducción de la frecuencia de imagen a 25 Hz para el sistema europeo y a 30 Hz para elamericano, con lo que las imágenes resultantes no son entrelazadas. Con todo ello se obtiene unacalidad equivalente al formato de vídeo analógico VHS.

El formato CIF (Common Intermediate Format) es un compromiso entre el formato SIF para 625y para 525 líneas. Utiliza 360x288 muestras de resolución de luminancia, como en el sistemaeuropeo, y una frecuencia de refresco de 30 Hz, como en el sistema.

TEMA 9. LA SEÑAL DE VÍDEO UNED - CURSO 2007-2008

Tecnología de los Contenidos Multimedia 9.71

Todos los formatos digitales anteriores se realizan para relaciones de aspecto 4:3 y se obtienensubmuestreando las componentes de crominancia y/o luminancia del formato 4:4:4. Como lanorma ITU-R 601 establece una única frecuencia de muestreo para las señales procedentes delNTSC o del PAL, el número de elementos en cada fila es idéntico para ambos estándares. Perocomo el número de filas es distinto, el área asociada a cada elemento de imagen no es cuadrada,sino rectangular. En el sistema europeo, para que en una pantalla con una relación de aspecto 4:3puedan presentarse 720 columnas y 576 filas, es necesario que los píxeles sean más anchos quealtos (4/720 > 3/576), y al contrario en el sistema americano en el que los píxeles deben ser másaltos que anchos. En aplicaciones informáticas es conveniente que los píxeles tengan una rela-ción de aspecto cuadrada ya que las tarjetas de visualización y los programas de tratamiento deimagen asumen esta propiedad. Por ello deben definirse formatos alternativos, denominados for-matos de píxel cuadrado, para el tratamiento en computadores. Estos formatos son equivalentes alos formatos definidos anteriormente, con la diferencia de que se modifica el número de elemen-tos por fila para forzar que la relación de aspecto del píxel sea cuadrada. Por ejemplo, en el están-dar de 625 líneas el tamaño de una imagen 4:2:0 es 768x576 píxeles (768 =(4/3)x576) mientrasque en el estándar de 525 líneas es 640x480 píxeles (640 = (4/3)x480). Este formato es el cono-cido VGA. Los demás formatos SIF, CIF y QCIF de píxel cuadrado se obtienen dividiendo lasresoluciones espaciales por factores de 2. La tabla 9.6 muestra los formatos digitales básicos.

Además de estas características básicas el fundamento de la televisión digital es la compresión,por lo que el siguiente capítulo lo analiza detenidamente.

Tabla 9.6 Formatos digitales básicos.

9.16 TELEVISIÓN DE ALTA DEFINICIÓN, HDTV

Los formatos digitales de alta definición se definen prácticamente duplicando el número de píxe-les en cada dirección. En el estándar europeo el tamaño de imagen de alta definición es1440×1152 para relaciones de aspecto de 4:3 y 1920x1152 para relaciones de aspecto panorámi-cas.

Con estos parámetros las señales de HDTV, transmitidas sin comprimir, requieren anchos debanda de hasta 30 MHz, mientras que para la televisión convencional el ancho de banda es de6MHz. Por tanto, estos sistemas son incompatibles con los equipos de TV actuales, y además

Europeo TV Americano TV Europeo Cuadrado Americano Cuadrado 4:2:0 720×576 720×480 720×576 640×480 SIF 360×288 360×240 384×288 320×240 CIF 360×288 360×288 384×288 384×288

QSIF 180×144 180×120 192×144 160×120

TEMA 9. LA SEÑAL DE VÍDEO UNED - CURSO 2007-2008

9.72 Tecnología de los Contenidos Multimedia

existen problemas para su paso por estaciones de difusión. La solución pasa de nuevo por la com-presión de datos, que se detalla en el siguiente capítulo. Con esas técnicas se pueden comprimirlas señales de HDTV dentro de los 6 MHz. Utilizando la compresión MPEG-2, los mismos 6MHz de ancho de banda que transportan un canal de HDTV pueden transportar seis canalesNTSC en formato digital. Estos canales adicionales podrían ser utilizados para servicios de pagopor visión, servicios de datos, y especialmente para servicios de comunicaciones bidireccionaleso videoconferencia.

Por otro lado, la HDTV tiene más de 1000 líneas de barrido, normalmente 1125 o 1250 líneas.Pero además el método de barrido de estas líneas es completamente diferente. Recuérdese que latelevisión convencional utiliza un método de barrido entrelazado, en el que la imagen es ilumi-nada por los patrones sucesivos de líneas alternadas. Primero son barridas las líneas impares y acontinuación se sigue con las líneas pares. El barrido entrelazado reduce el parpadeo de la panta-lla al permitir que la mitad de la pantalla permanezca iluminada en cualquier instante, pero tienela desventaja de crear "artificios" o irregularidades en el movimiento vertical.

La HDTV utiliza un método de barrido progresivo, en el que la imagen es barrida línea por línea,consecutivamente, de arriba a abajo de la pantalla. La mayor resolución de imagen reduce la sus-ceptibilidad de HDTV a artificios de movimiento.

Comparado con la televisión NTSC, HDTV/DTV puede reproducir seis veces más detalle y diezveces más información de color.

La alta definición ha tenido varios formatos y se han propuesto varios estándares. La industriadel cine está empezando a usar los formatos HDTV con el propósito de obtener altas resolucionespara mostrar las imágenes con la mejor calidad en las grandes pantallas de cine. Así, han consoli-dado el estándar de alta definición más común.

Todos los formatos de alta definición adoptan la misma relación de aspecto de pantalla panorá-mica 16:9 (Widescreen). Además, en todos los estándar de alta definición, los pixels son cuadra-dos. Esto incluye a la industria informática, permitiendo integrar de forma más simple losgráficos generados por ordenador en las imágenes de alta definición. Todos los estándar HDTVusan la colorimetría definida en la ITU-R BT.709, que no es la misma que se usa en los sistemasde televisión estándar PAL o NTSC.

Los estándares HDTV han considerado de forma fundamental la convergencia entre la electró-nica, la industria cinematográfíca y la industria informática.

Existen dos familias de formatos de televisión en alta definición (HDTV) que se distinguen porel número de píxeles y por el de líneas. Una de las familias tiene 1080 líneas activas de imagenmientras que la otra, tiene 720 líneas. Cada familia define varias frecuencias de visualización oimágenes por segundo.

Una de las características más importantes de la alta definición, ha sido el barrido entrelazado yprogresivo. La HDTV admite ambos, reconociendo las ventajas de cada uno de ellos. La forma

TEMA 9. LA SEÑAL DE VÍDEO UNED - CURSO 2007-2008

Tecnología de los Contenidos Multimedia 9.73

más común para referirse a un estándar de alta definición, es usar el número de líneas y la fre-cuencia de visualización. Por ejemplo, 1080/50i y 720/60p definen el estándar, donde el primernúmero indica siempre el número de líneas, el segundo número indica la frecuencia de visualiza-ción, y la "i" o la "p" indica si el barrido es entrelazado (i) o progresivo (p). Seguidamente se pre-sentan las características fundamentales de ambas familias.

9.16.1 ALTA DEFINICIÓN 1920×1080 ‘COMMON IMAGE FORMAT’ (HD-CIF)Esta familia está definida internacionalmente por la SMPTE 274M y la subdivisión ITU-RBT.709-5. El estándar BT.709 define un formato de imagen y frecuencia de visualización, ytodas sus variantes tienen 1920 píxeles horizontales y 1080 líneas activas de imagen.

La relación de aspecto es 16:9 y el pixel es cuadrado, (1080×16/9=1920) lo que se ajusta perfec-tamente a los sistemas informáticos.

El formato HD-CIF de 1920×1080 contiene 2,07 millones de píxeles en una imagen de televi-sión, frente a los 400.000 píxeles de una imagen PAL o NTSC. Por tanto, el aumento potencialde resolución es de un factor de 5 veces.

Los diferentes estándares se presentan debido a las diferentes frecuencias de visualización y a laforma en que las imágenes son capturadas: progresiva o entrelazada.

La SMPTE define once formatos de escaneado de HDTV 1920×1080, ocho progresivos y tresentrelazados.

La ITU define diez sistemas de escaneado, ocho progresivos y dos entrelazados. Estos incluyen25fps para Europa, 30fps para Estados Unidos y Japón y 24fps para la industria cinematográfica.

El formato común de imagen (CIF) facilita el intercambio de programas entre diferentes entornosy hace posible que cualquier equipamiento pueda trabajar en cualquier entorno. El documentoITU BT.709-5 recomienda el uso del formato HD-CIF para la producción de nuevos programas yfacilitar así los intercambios internacionales.

En la norma ITU-R BT.709-5 el formato común de imagen (CIF) está definido "para tener unparámetro de imagen común, independiente de la frecuencia de la imagen". Los parámetros cla-ves son el sistema de barrido y la colorimetría. La tabla 9.7muestra las frecuencias permitidas.

Tabla 9.7 Frecuencias permitidas, donde i=entrelazado, p=progreivo y psF=progresivo con cuadro segmentado.

Sistema Captura Barrido

24p, 25p, 30p, 50p, 60p 1920 x 1080, progresivo Progresivo

24psF, 25psF, 30psF 1920 x 1080 captura progresiva Cuadro segmentado 50i, 60i 1920 x 1080 entrelazado Entrelazado

TEMA 9. LA SEÑAL DE VÍDEO UNED - CURSO 2007-2008

9.74 Tecnología de los Contenidos Multimedia

El cuadro segmentado (Segmented Frame) es una forma de transportar una imagen progresiva endos segmentos, así esa señal se "ve" igual que los dos campos (fileds) de una imagen entrelazada.

En post producción se necesitará trabajar en ambos formatos de señal, tanto en entrelazado comoen progresivo, hasta que se imponga definitivamente el progresivo. Uno de los problemas paramonitorizar los nuevos formatos de señal, como el 24p, es el parpadeo (flicker) inducido en losmonitores de televisión TRC. El segundo es el procesamiento de las imágenes progresivas. Lamayoría de los monitores de televisión TRC muestran las imágenes de forma entrelazada. El for-mato de cuadro segmentado permite usar los mismos sistemas electrónicos para imágenes pro-gresivas y entrelazadas, y visualizarlas correctamente sobre monitores de TRC. No hay cambiosen la característica de la imagen progresiva, y sólo se usa para frecuencias de hasta 30fps. Tam-poco hay problemas para monitorizar la señal con los nuevos visualizadores planos, de LCD o deplasma. El interface digital de una señal entrelazada es el mismo, aunque el contenido de esaseñal es diferente.

9.16.2 ALTA DEFINICIÓN 1280×720 ‘PROGRESSIVE IMAGE SAMPLE STRUCTURE’Definido internacionalmente por la SMPTE 296M, aunque no por la ITU, es una familia queincluye ocho sistemas de escaneado, todos progresivos y con una resolución de 1280 píxeleshorizontales y 720 líneas activas. Proporciona 921600 píxeles en una imagen.

Las frecuencias de visualización son 23,98p, 24p, 25p, 29,97p, 30p, 48p, 50p, 59,95p y 60p. Latabla 9.8 muestra estas frecuencias.

Tabla 9.8 Frecuencias de visualización.

La colorimetría cumple la norma ITU-R BT.709

Como puede observarse el resultado de que haya muchas variantes para cada familia de AltaDefinición es la multitud de frecuencias de cuadro.

Históricamente, en Europa y otras partes del mundo el sistema de televisión estándar tiene unavelocidad de 25 imágenes por segundo. En Estados Unidos y Japón se usan 30 imágenes porsegundo, mientras que la industria cinematográfica usa 24 imágenes por segundo.

Las grandes cadenas de televisión americanas emiten actualmente en ambos formatos de altadefinición, 1080i y 720p usando la misma frecuencia de cuadro/campo que la señal de televisiónestándar.

Sistema Captura Escaneado

24p, 25p, 30p, 50p, 60p 1280 x 720 progresivo Progresivo (PAL) 23,98p, 29,97p, 59,94p 1280 x 720 progresivo Progresivo compatible NTSC

TEMA 9. LA SEÑAL DE VÍDEO UNED - CURSO 2007-2008

Tecnología de los Contenidos Multimedia 9.75

En Europa, la primera cadena de televisión de alta definición - Euro1080 -, que empezó a emitiren enero de 2004, usando el formato 1080i a 25i (50Hz)

En alta definición, es normal producir imágenes usando un estándar y emitirlo en otro estándar.Por ejemplo, se puede grabar a 25 imágenes o 50 campos por segundo y emitirlos a 60 campospor segundo.

Debido a la gran cantidad de datos necesarios para las variantes de escaneo progresivo a1920×1080, las cámaras actuales en general no disponen de frecuencias mayores de 30Hz. Lasimágenes entrelazadas pueden ser capturadas fácilmente a 60 campos por segundo.

La frecuencia de datos a 720p es más manejable, y hay cámaras que graban imágenes a 60 cua-dros por segundo, proporcionando una frecuencia de reproducción variable. Esto es particular-mente interesante en documentales de naturaleza y acontecimientos deportivos.

Existen conversores de alta definición en el mercado, que pueden convertir entre frecuencias decuadro y entre familias de 1080 y 720, aunque todavía no permiten compensar la conversiónentre 25i y 30i.

Para producción, es posible masterizar material a 24p. El material se maneja de la misma formaque las imágenes de cine - en Estados Unidos usando el 3-2 pulldown: en Europa aumentando lavelocidad hasta 25 imágenes por segundo. La baja frecuencia de muestreo temporal de 24 imáge-nes por segundo, no es apropiada para todo tipo de material - en particular para deportes demucha acción- donde el parpadeo puede molestar la visión por parte del espectador.

Los equipamientos de post producción en Alta Definición son, en general, muy flexibles y pue-den trabajar con imágenes adquiridas usando todos los estándar de ambas familias. La eleccióndel formato de adquisición (frecuencia de cuadro y tipo de barrido) dependerá del estilo y delcontenido.

La única limitación es el requerimiento basado en 50Hz o 60Hz para la emisión, y esto se puedeconsiderar en la preproducción. Se pueden elegir las variantes de 24p, 25p y 50i para Europa yafines, o convertir 24/30p o 60i para USA y Japón aunque, como se dijo antes, la conversión defrecuencia es posible pero sin compensación.

9.17 FORMATOS DE GRABACIÓN DE VÍDEO DIGITAL

Desde el punto de vista de la grabación y almacenamiento de vídeo, el video digital tiene unnúmero importante de ventajas sobre el analógico. Una cinta digital puede ser copiada casi inde-finidamente sin pérdida de calidad. Esta es una ventaja importante en las sesiones de post-pro-ducción que requieren varias capas de efectos, las cintas digitales se adaptan mejor para unalmacenamiento prolongando y la calidad técnica de las grabaciones digitales es mejor que susimilar analógica.

TEMA 9. LA SEÑAL DE VÍDEO UNED - CURSO 2007-2008

9.76 Tecnología de los Contenidos Multimedia

Los formatos digitales suelen utilizar alguna compresión. Las cámaras digitales más avanzadasutilizan un formato 4:2:2 "sin pérdidas", es decir, compresión mínima, luminancia y crominanciaregistradas por separado, un porcentaje de muestreo más alto, etc.

Otras cámaras utilizan un formato 4:1:1, como por ejemplo DV, DVCAM, DVCPRO, etc., quedepende en un nivel más alto de compresión, disminuyendo la calidad de video. La ventaja decalidad del 4:2:2 es evidente cuando se requiere edición, copiado, efectos especiales complejos,etc. La mayoría de las cámaras comerciales utilizan un formato 4:1:1.

Cuanto más se muestrea el color mejor es la calidad del cuadro; pero, también, se requiere mayorancho de banda y el proceso de grabación digital se hace más exigente.

El proceso de muestreo 4:4:4 está asociado a los equipos profesionales de vanguardia. Cualquierformato que muestree por debajo de 4:4:4 realmente compromete en algo la calidad.

Básicamente son tres los formatos digitales populares que graban en cinta de ¼ de pulgada: DV,DVCCAM y DVC Pro/DVC Pro 50.

La mayoría de las cámaras comerciales utilizan cintas digitales más pequeñas que una cinta deaudio estándar. La cámara mini DV Handycam de Sony es tan pequeña que se puede guardar enel bolsillo de un abrigo. Además del visor estándar, tiene un visor plano, a color LCD, que sedesdobla. La PV-DV1000 de Panasonic y la mini VD AG-EZIU se han hecho muy populares.Sus 500 líneas de resolución exceden significativamente lo que los consumidores están acostum-brados a ver con la mejor señal de televisión por aire. Esta cámara tiene una conexión FireWire,que significa que la salida de la grabadora puede ser conectada directamente a un disco duro digi-tal.

La GR-DV1 de JVC es Incluso más pequeña que la Handycam de Sony. Esta tiene el tamaño deun libro de bolsillo. Tiene un lente zoom 10:1, que enfoca en macro, efectos especiales incluidos,y registra con condiciones de luz bastante bajas. Incluso permite grabar en una proporción de 4:3y o de 16:9.

Una cámara sin cinta fue lanzada al mercado por Hitachi a finales de 1997. La que codifica mpegtiene también el tamaño de un libro de bolsillo y puede grabar hasta 20 minutos de video y audioen disco duro removible de 260 MB.

La salida del disco puede alimentar a un VCR estándar para grabar, o el disco duro puede serintroducido a la computadora para edición digital. La resolución es comparable con el VHSestándar.En relación con los formatos digitales profesionales destacan los denominados de lalínea "D". Muchos han sido los formatos exitosos en esta línea. El D-1 fue el primer estándardigital a nivel mundial. Aún es utilizado en algunas aplicaciones especializadas de post-produc-ción. Después siguieron D-2 y D-3, cada uno adicionando ventajas técnicas. No existió un D-4,probablemente por su connotación de muerte en el lenguaje Japonés.

TEMA 9. LA SEÑAL DE VÍDEO UNED - CURSO 2007-2008

Tecnología de los Contenidos Multimedia 9.77

El D-5, uno de los más recientes, combina varias de las ventajas de formatos digitales anteriores,mientras que solventa los problemas inherentes de compresión y combinación de información devideo.

Los casetes D-5 graban hasta 2 horas de material en un solo videocasete. Por la posibilidad degrabar más información por unidad de tiempo, el formato D-5 puede ser adaptable a la produc-ción DTV/HDTV.

El formato D-5, junto a los Digital-S, ahora conocido como D9, y unos cuantos formatos de altasprestaciones es considerado uno de los formatos digitales sin compromiso 4:2:2, con compresiónmínima, luminancia y crominancia grabados separadamente y con mayor rango de muestreodigital, etc.

Sony introdujo el sistema DVCAM en la convención de la NAB (Asociación Nacional de Trans-misores) de 1996 como un formato digital económico. En esta línea estaba incluida una innova-dora línea híbrida de edición lineal y no lineal. Las cintas DVCAM son compatibles con elformato DV.

A pesar del formato inicial 4:1:1, el DVCPRO introdujo una versión 4:2:2 llamada el DVCPRO50 a finales de 1997.

El formato DVCPRO se ha hecho muy popular en una gama bastante amplia de usuarios. El edi-tor portátil DVCPRO AJ-LT75 laptop, que contiene dos unidades de reproducción, monitores acolor, monitores estéreo y batería para poder operar, todo en un maletín portátil (tipo ejecutivo,para llevar documentos) se convirtió en una opción muy aceptada por reporteros. PosteriormenteSONY introdujo un paquete similar.

Gracias a esta unidad, las noticias pueden ser grabadas, editadas y transmitidas a la estación parasu posterior salida al aire más fácil y eficientemente.

Para muchos profesionales del video, la cámara DCR-VX1000 de Sony, con su impresionantecalidad digital, fue razón suficiente para cambiar sus equipos de tecnología analógica a digital.Esta cámara utiliza tres CCD en vez de uno, factor que impulsó la calidad de la primera genera-ción del video a un rango profesional.

Aunque esta calidad no puede competir con la alta calidad de los equipos 4:2:2, de mayor precio,es si duda una excelente adquisición como formato para noticias y trabajos documentales.

La calidad del formato Digital-S (D-9) 4:2:2 excede todos los formatos analógicos e inclusomuchos de los formatos digitales. Este formato ofrece cuatro canales de audio sin compresión. D-9 utiliza el diseño básico de transporte de VHS, aunque ha sido alterado junto con la cinta y elcuerpo del casete, para ajustarse a estándares profesionales.

Aunque muchas máquinas D-9 son capaces de reproducir cintas S-VHS, el formato es muy supe-rior al S-VHS, especialmente cuando se requieren aplicaciones multigeneracionales como la edi-ción. La copia de una copia es la primera generación, otra copia de esa copia es la segunda, etc.

TEMA 9. LA SEÑAL DE VÍDEO UNED - CURSO 2007-2008

9.78 Tecnología de los Contenidos Multimedia

Una característica importante de este formato es la pre-lectura, que permite reproducir video yaudio y simultáneamente grabar nuevas señales de video y audio en su lugar. Esto significa quela señal original puede ser modificada varias veces antes de ser regrabada. Por ejemplo, títulos yefectos especiales pueden ser añadidos mientras la cinta es reproducida. La tabla 9.9 muestra losformatos digitales más habituales.

Tabla 9.9 Formatos digitales más habituales.

Estándares DVB

El DVB (Digital Video Broadcasting) es un organismo encargado de regular y proponer los pro-cedimientos para la transmisión de señales de televisión digitales compatibles. Está constituidopor más de 220 instituciones y empresas de todo el mundo y los estándares propuestos han sidoampliamente aceptados en Europa y casi todos los continentes, con la excepción de Estados Uni-dos y Japón donde coexisten con otros sistemas propietarios. Todos los procedimientos de codifi-cación de las fuentes de vídeo y audio están basados en los estándares definidos por MPEG.

Sin embargo, los estándares MPEG sólo especifican la metodología de la compresión

de las señales de audio y vídeo y los procedimientos de multiplexación y sincronización de estasseñales en tramas de transporte.

Una vez definida la trama de transporte es necesario definir los sistemas de modulación de señalque se utilizarán para los distintos tipos de radiodifusión tales como terrestre, satélite o cable.También deben definirse los tipos de códigos de protección frente a errores y los mecanismos deacceso condicional a los servicios y programas.

DVB ha establecido varios estándares en función de las características del sistema de radiodifu-sión. Los más utilizados en la actualidad son el DVB-S y el DVB-C

que contemplan las transmisiones de señales de televisión digital mediante redes de distribuciónpor satélite y cable respectivamente. El DVB-T define la transmisión de televisión digital a tra-vés de redes de distribución terrestres utilizando los canales VHF convencionales.

Formato Tipo de Cinta Tracks C-format 25.4mm óxido 4 Beta SP 12.7mm partículas de metal 4 Beta SX 2.7mm metal evaporado 4 Digital Beta 12.7mm metal evaporado 5 DV 6.35mm patículas de metal 2 DVCCAM 6.35mm metal evaporado 2 DVCPRO 6.35mm metal evaporado 3 DVCPRO50 6.35mm partículas de metal 5 Digital S 12.7mm partículas de metal 4

TEMA 9. LA SEÑAL DE VÍDEO UNED - CURSO 2007-2008

Tecnología de los Contenidos Multimedia 9.79

Además de estos estándares también están especificados sistemas para la distribución de señalesde televisión digital en redes multipunto, sistemas SMATV (Satellite Master Antenna Televi-sión). También existen estándares que definen las características de la señalización en el canal deretorno en sistemas de televisión interactiva, la estructura de transmisión de datos para la encrip-tación y desencriptación de programas de acceso condicional, la transmisión de subtítulos, y laradiodifusión de datos (nuevos canales de teletexto) mediante sistemas digitales.

TEMA 9. LA SEÑAL DE VÍDEO UNED - CURSO 2007-2008

9.80 Tecnología de los Contenidos Multimedia