diapositivas hipi 1
Post on 21-Jun-2015
196 Views
Preview:
DESCRIPTION
TRANSCRIPT
EDICIÓN DE VIDEO
La edición de vídeo es un proceso en el cual un editor coloca fragmentos de vídeo, fotografías, gráficos, efectos digitales o cualquier otro material audiovisual en una cinta de vídeo o un archivo informático llamado master, del que se generarán después las distintas copias y así obtener un video final para cualquier uso comercial, periodístico, documental, escolar, etc. En la mayoría de los casos se incluye audio que puede ser música o el diálogo de personajes.
¿ EDICIÓN O MONTAJE ?
Edición: La edición se caracteriza por la necesidad imperativa de seleccionar, entre los planos grabados, aquellos que realmente se adapta a las necesidades expresivas suprimiendo todo aquello que resulte innecesario para expresar la idea narrativa, tomando en cuenta para ello:
1) Cambio de lugar2) Cambio de ángulo de la toma3) Cambio de objetivo4) Cambio de plano5) Introducción de un detalle como paréntesis de confirmación, de puesta en duda.
6) Evocación: a) de tiempo pasado, b) de tiempo futuro, c) a distancia, en el mismo tiempo7) Acciones paralelas, o sea la extensión del precedente8) Contraste o antítesis9) Asociación o metáfora, fenómeno inverso del contraste10) Estribillo o leit motiv, en caso de la señal visual una imagen retorna periódicamente11) Rima o alusión plástica12) Concentración, transición a un plano más cercano.13) Ampliación, transición a un plano más largo
MONTAJE
El montaje es la ordenación narrativa y rítmica de todos los elementos objetivos del relato (auditivos, gráficos y visuales, que, de acuerdo a un guión). El proceso de escoger, ordenar y empalmar todos los planos que se registraron pensando en la coherencia secuencial del montaje para sintetizarse e integrarse de manera articulada mediante el uso del lenguaje audiovisual según una idea previa y un ritmo determinado.
El montaje secuencial que se realiza en la edición con y sobre las imágenes es homóloga al proceso de escritura, se trabaja bajo una sintaxis visual y reglas de coherencia. Es aquí cuando el realizador articula los planos para estructurar una nueva realidad.
El vídeo presentaba numerosas ventajas. Podía grabar el sonido al mismo tiempo que la imagen y en el mismo soporte, no necesita ser revelado ni crear una copia de trabajo en positivo, se podía trabajar con él directamente.
Uno de sus problemas era no poder ver cada parte, por eso, en 1967 la empresa EECO produjo las cintas con código de tiempos para identificar la hora, el minuto, el segundo y el cuadro de una cinta.
Cinco años después, la SMPTEE (Society of Motion Picture and Television Engineers) y la UER (Unión Europea de Radiodifusión) crearon el estándar SMPTE. Esto, unido a la mejora de la informática, permitió el nacimiento de las mesas con dicho código y un ahorro considerable de tiempo a la hora de buscar y visionar el fragmento deseado (Ohain, 1996, p. 31).
Para realizar la edición con estas innovaciones se necesitaban por lo menos dos magnetoscopios, uno como fuente, lector o reproductor (player) y otro el grabador (recorder). El proceso de edición consiste en grabar en el recorder la señal reproducida por el player.
Hasta la entrada de los mezcladores de vídeo, la transición entre secuencias se hacía por corte. Este dispositivo permitía controlar más de un magnetoscopio y así apareció la edición A/B roll con capacidad para realizar encadenados y otras cortinillas al mezclar las imágenes de dos fuentes. La expresión "A/B roll" viene también del cine y es una contracción de "A roll in B" cuando una escena se veía superpuesta o compartiendo pantalla con otra (Evans, 2006, p. 252).
Había otro problema para la salas de edición. Muchos de los trabajos profesionales en vídeo debían terminarse pensando en realizar copias para el NTSC estadounidense de 525 líneas de definición con una frecuencia de 30 cuadros por segundo o el PAL europeo de 625 líneas refrescadas 25 veces por segundo, además estaban los formatos de cine con películas de 16 mm y 32 mm principalmente y reproducido a 24 fotogramas por segundo.
Durante la década de 1970 las ediciones profesionales se realizaban en cintas de 2".
Pero en 1978 salió la cinta de vídeo C de 1" y bobina abierta que se convirtió en el estándar profesional durante los años 1980.
Posteriormente el formato Betacam de Sony con 625 líneas de definición fue imponiéndose dentro del ámbito profesional, pero sin llegar a monopolizarlo hasta la llegada del Betacam SP
Todos ellos requerían inversiones inaccesibles para los aficionados e incluso para televisiones locales, por eso fueron aparecieron otros como el VHS del consorcio liderado por JVC, el Betamax de Sony,2000 alemán o 8mm japonés con algo más de 200 líneas de definición en cualquier caso.
Más calidad daban el S-VHS o Hi-8 con unas 400 líneas empleados por profesionales para trabajo sin calidad broadcast. Esta variedad de formatos conllevaba varios procesos de conversión que a veces podían ser largos y caros por necesitar incluso máquinas especiales para realizar la conversión
Edición lineal
Utilizando un magnetoscopio con un monitor y grabando la imagen en otro se resolvía el problema de acercar con el punto exacto para el "corta y pega". A esta edición se la denomina "lineal" porque los aparatos reproductores solo podían moverse hacia adelante o hacia atrás (Konigsberg, 2004, p. 183). Por tanto, para llegar a un momento determinado, era necesario avanzar o rebobinar la cinta, a una u otra velocidad.
15 editores de vídeo para Windows gratuitos
VirtualDub Windows Movie Maker 2.6 Cinefx Jashaka AVIedit VideoPad Video Editor Moviestorm VideoSpin Xilisoft Video Editor Apple iMovie for Mac Wax VideoThang MPEG Streamclip VideoSpirit Pro OpenShot Video Editor Magix Movie Edit Pro MX Plus
Otra limitación de la edición lineal aparecía cuando se deseaba variar la duración de una secuencia intermedia o sustituirla por otra más corta o más larga. Entonces era necesario volver a editar todas las posteriores, debido a los problemas de rotura (ver más adelante) . Pese a todo, este tipo de edición sustituyó a la de corte y empalmado físico y se llevó a cabo con multitud de equipos y sistemas, caso de los populares VHS, S-VHS, Hi8... pero también de los profesionales Betacamde Sony y el U-matic alta banda, los dos con calidad de emisión (Broadcast).
EDICIÓN NO LINEAL
Consiste en manipular material audiovisual sin ningún orden. Se puede colocar una secuencia, después otra, luego una tercera, ampliar la primera, cambiar la segunda por otra. Es la edición de archivos digitalizados a través de programas informáticos para manipular los archivos. Una vez realizado el montaje, se puede exportar a un archivo para reproducirlo en la Web, CD, DVD o dispositivos portátiles como un ipod, psp, mp3, etc.
La edición no lineal es la utilizada por la tecnología digital. Esta forma de edición permite ordenar los cuadros en el orden en que se deseen. Se puede tratar cualquier cuadro de imagen de forma directa sin necesidad de seguir toda la secuencia, independiente de la forma y orden de como hemos grabado el video.
Estos equipos constaban de un magnetoscopio grabador y varios reproductores, hasta 27 en algunos casos. El editor seleccionaba una primera secuencia, después una según, luego una tercera... por su parte, la máquina colocaba uno de los magnetoscopios al principio de la primera secuencia, el segundo al principio de la segunda... Así el visionado y la grabación eran continuos, pese a saltar de una fuente a otra. Cuando el número de fragmentos era superior al de magnetoscopios, el primero libre que tuviera la secuencia deseaba se desplazaba hasta el primer cuadro de la misma y la reproducía cuando llegara el momento.
Los equipos basados en cinta de vídeo aparecieron a principios de los ochenta, poco después de nacer los aparatos reproductores y grabadores domésticos (Konigsberg, 2004). Según Ohanian (1996, p. 88) el primero se denominabaMontage Picture Processor y salió al mercado en 1984. ParaJacobson (2010, p. 423) tal honor le corresponde al Ediflex, comercializado en 1983. Touch Visión lanzó por su parte el BHP Touch Vision de 1986. Todos empleaban cintas VHS oBetamax y funcionaron hasta la llegada de los equipos digitales. Estas máquinas ofrecían, entre otros subproductos, una EDL, una lista de corte de negativo y una copia de visionado.
SEGUNDA GENERACIÓN (POR DISCO LÁSER)
Esta generación surgió casi al mismo tiempo que la basada en cinta de vídeo. Empleaba varios lectores de discos láser del tipo Velocidad angular constate (CAV en inglés), pero hubo excepciones. En principio se necesitaban cuatro reproductores como mínimo, uno para suministrar las imágenes A, otro con el sonido de las imágenes A, un tercero con las imágenes B y un cuarto con el sonido de las imágenes B; pero con la posterior entrada de discos láser de doble cara y reproductores con doble cabezal el número de máquinas mínimas se redujo a dos.
Tercera generación (por disco magnético)
En 1988 apareció el primer editor no lineal basada en un computador por entero, desde las fuentes hasta el resultado final. Se llamó EMC2 fabricado por Editing Machines Corporation y usaba como plataforma un IBM PC. Las imágenes se comprimían siguiendo el algoritmo compresión asistido por hardware JPEG empleando la resolución visible del NTSC (720 columnas por 480 líneas). Respecto al audio sus resoluciones podían variar entre 16 y 48 KHz. En total poseía una capacidad máxima de 24 horas de material. A este producto le siguieron otros como el Avid Media Composer o elLightworks.
Sony había lanzado en 1986 la primera cinta digital, la D1, y estaba trabajando en el sistema de registro Betacam Digital; pero aún no era posible utilizar los archivos digitales como brutos de cámara. Los equipos pertenecientes a esta generación digitalizaban las imágenes de vídeo o el telecinado en caso de ser película utilizando la compresión JPEG, por lo tanto, sufrían pérdida de calidad entre generaciones, también se requería tiempo para digitalizar el material
Pese a que algunas marcas vendieron cientos o incluso miles de sistemas, constituían una inversión considerable porque incluían una tarjeta gráfica potente para mostrar las imágenes en pantalla, un procesador también potente para realizar los primeros y primitivos efectos digitales, una tarjeta compresora y descompresora para tratar el algoritmo JPGE, mucha memoria RAM para la época y varios discos duros de gran capacidad. Por ejemplo, una hora de material en sistema PAL requería un disco duro de 8.2 GBytes,3 en un tiempo que un GByte de almacenamiento podía llegar a costar 1 000 dólares
La tercera generación trajo varias novedades en comparación con las anteriores. Entre otras cabe destacar:
Con los nuevos medios podía exportarse un historial completo de acciones realizadas en lugar de una simple EDL, con lo cual todas las decisiones sobre cortinillas o sonido iban incluidas.
El acceso a cualquier parte del material era realmente aleatorio.
Varios efectos podían crearse con el propio aparato, caso de la titulación o la incorporación de imágenes.
CUARTA GENERACIÓN
Al contrario que las anteriores, la cuarta generación no se basaba en nuevas tecnologías. Las ventajas aportadas por la generación anterior hacían presagiar un momento donde la sala off-line y la sala on-line se unieran en un mismo equipo, es decir, que un sólo sistema pudiese realizar las concatenaciones de planos, la titulación, los efectos digitales, las capturas, la edición de audio multipista, para producir un resultado en cinta o en archivo informático con calidad suficiente para ser emitido.
El Avid Media Composer 8000, aparecido en 1999, ya podía producir anuncios y programas de televisión con calidad suficiente como para sustituir a las dos salas. Esto se debió a varios factores entre los que destacan el abaratamiento en los sistemas de almacenamiento, tanto en memoria RAM como en disco y las mejores prestaciones de los programas, con editores de sonido multipistas o la posibilidad de crear nuevos efectos digitales.
Quinta generación (Tarjetas de memoria Flash)
La quinta generación de edición digital se diferencia de las demás por poder trabajar con brutos de cámara digitales en su formato nativo, el RAW. Esto se debió a la confluencia de varios factores. Por una parte, la mejora de la tecnología Flash con una capacidad de almacenamiento próxima a los cien GBytes por cada tarjeta, Por otra parte, al nacimiento de cámaras como la Red One capaces de grabar en 4K y hasta 30 fps una hora o más en tarjetas, por lo tanto con acceso aleatorio y sin necesidad de digitalización.
También ayudó la implantación de los dos sistemas de Televisión Digital Terrestreo TDT con el consiguiente "apagón" de las emisoras analógicas y la entrada de la llamada Televisión de alta definición (Carrasco, 2010, p. 268). Por último cabe mencionar la comercialización de procesadores con varios núcleos y potencia suficiente para calcular 124 o más grupos de operaciones visuales por segundo, con lo cual un mismo sistema informático podía realizar todo tipo de efectos digitales,etalonado, incrustaciones... acompañados de memorias RAM con varios GBytes de capacidad y tarjetas gráficas de medio GByte o más, con lo cual, hasta los equipos domésticos eran capaces para procesar televisión de alta definición, inicialmente HD Ready con 720 líneas y con algo más de potencia la Full HD con 1080.
top related