EDITOR DE VIDEO

Post on 10-Jul-2015

110 views 2 download

Transcript of EDITOR DE VIDEO

EDICIÓN DE VIDEO

La edición de vídeo es un proceso en el cual un editor colocafragmentos de vídeo, fotografías, gráficos, efectos digitales ocualquier otro material audiovisual en una cinta de vídeo oun archivo informático llamado master, del que se generarándespués las distintas copias y así obtener un video final paracualquier uso comercial, periodístico, documental, escolar,etc. En la mayoría de los casos se incluye audio que puedeser música o el diálogo de personajes.

¿ EDICIÓN O MONTAJE ?

Edición: La edición se caracteriza por la necesidad imperativa deseleccionar, entre los planos grabados, aquellos que realmente seadapta a las necesidades expresivas suprimiendo todo aquelloque resulte innecesario para expresar la idea narrativa, tomandoen cuenta para ello:

1) Cambio de lugar2) Cambio de ángulo de la toma3) Cambio de objetivo4) Cambio de plano5) Introducción de un detalle como paréntesis de confirmación, de puesta en duda.

6) Evocación: a) de tiempo pasado, b) de tiempo futuro, c) a distancia, en el mismo tiempo7) Acciones paralelas, o sea la extensión del precedente8) Contraste o antítesis9) Asociación o metáfora, fenómeno inverso del contraste10) Estribillo o leit motiv, en caso de la señal visual una imagen retorna periódicamente11) Rima o alusión plástica12) Concentración, transición a un plano más cercano.13) Ampliación, transición a un plano más largo

MONTAJE

El montaje es la ordenación narrativa y rítmica de todos loselementos objetivos del relato (auditivos, gráficos y visuales, que,de acuerdo a un guión). El proceso de escoger, ordenar yempalmar todos los planos que se registraron pensando en lacoherencia secuencial del montaje para sintetizarse e integrarsede manera articulada mediante el uso del lenguaje audiovisualsegún una idea previa y un ritmo determinado.

El montaje secuencial que se realiza en laedición con y sobre las imágenes eshomóloga al proceso de escritura, se trabajabajo una sintaxis visual y reglas decoherencia. Es aquí cuando el realizadorarticula los planos para estructurar unanueva realidad.

El vídeo presentaba numerosasventajas. Podía grabar el sonido almismo tiempo que la imagen y en elmismo soporte, no necesita serrevelado ni crear una copia de trabajoen positivo, se podía trabajar con éldirectamente.

Uno de sus problemas era no poder vercada parte, por eso, en 1967 laempresa EECO produjo las cintas concódigo de tiempos para identificar lahora, el minuto, el segundo y el cuadrode una cinta.

Cinco años después, la SMPTEE

(Society of Motion Picture and

Television Engineers) y la UER (Unión

Europea de Radiodifusión) crearon el

estándar SMPTE. Esto, unido a la

mejora de la informática, permitió el

nacimiento de las mesas con dicho

código y un ahorro considerable de

tiempo a la hora de buscar y visionar el

fragmento deseado (Ohain, 1996,

p. 31).

Para realizar la edición con estas innovacionesse necesitaban por lo menosdos magnetoscopios, uno como fuente, lector oreproductor (player) y otro el grabador(recorder). El proceso de edición consiste engrabar en el recorder la señal reproducida porel player.

Hasta la entrada de los mezcladores de vídeo,la transición entre secuencias se hacía porcorte. Este dispositivo permitía controlar más deun magnetoscopio y así apareció la edición A/Broll con capacidad para realizar encadenados yotras cortinillas al mezclar las imágenes de dosfuentes. La expresión "A/B roll" viene tambiéndel cine y es una contracción de "A roll in B"cuando una escena se veía superpuesta ocompartiendo pantalla con otra (Evans, 2006,p. 252).

Había otro problema para la salas deedición. Muchos de los trabajosprofesionales en vídeo debíanterminarse pensando en realizarcopias para el NTSC estadounidensede 525 líneas de definición con unafrecuencia de 30 cuadros por segundoo el PAL europeo de 625 líneasrefrescadas 25 veces por segundo,además estaban los formatos de cinecon películas de 16 mm y 32 mmprincipalmente y reproducido a 24fotogramas por segundo.

Durante la década de 1970 las ediciones

profesionales se realizaban en cintas de

2".

Pero en 1978 salió la cinta de vídeo C

de 1" y bobina abierta que se convirtió

en el estándar profesional durante los

años 1980.

Posteriormente el formato Betacam de

Sony con 625 líneas de definición fue

imponiéndose dentro del ámbito

profesional, pero sin llegar a

monopolizarlo hasta la llegada del

Betacam SP

Todos ellos requerían inversionesinaccesibles para los aficionados e inclusopara televisiones locales, por eso fueronaparecieron otros como el VHS delconsorcio liderado por JVC, el Betamax deSony,2000 alemán o 8mm japonés con algomás de 200 líneas de definición encualquier caso.

Más calidad daban el S-VHS o Hi-8 conunas 400 líneas empleados porprofesionales para trabajo sin calidadbroadcast. Esta variedad de formatosconllevaba varios procesos de conversiónque a veces podían ser largos y caros pornecesitar incluso máquinas especiales pararealizar la conversión

Edición lineal

Utilizando un magnetoscopio con un monitor ygrabando la imagen en otro se resolvía el problemade acercar con el punto exacto para el "corta ypega". A esta edición se la denomina "lineal"porque los aparatos reproductores solo podíanmoverse hacia adelante o hacia atrás (Konigsberg,2004, p. 183). Por tanto, para llegar a un momentodeterminado, era necesario avanzar o rebobinar lacinta, a una u otra velocidad.

15 editores de vídeo para Windows gratuitos

VirtualDub

Windows Movie Maker 2.6

Cinefx Jashaka

AVIedit

VideoPad Video Editor

Moviestorm

VideoSpin

Xilisoft Video Editor

Apple iMovie for Mac

Wax

VideoThang

MPEG Streamclip

VideoSpirit Pro

OpenShot Video Editor

Magix Movie Edit Pro MX Plus

Otra limitación de la edición lineal aparecíacuando se deseaba variar la duración deuna secuencia intermedia o sustituirla porotra más corta o más larga. Entonces eranecesario volver a editar todas lasposteriores, debido a los problemas derotura (ver más adelante) . Pese a todo,este tipo de edición sustituyó a la de corte yempalmado físico y se llevó a cabo conmultitud de equipos y sistemas, caso de lospopulares VHS, S-VHS, Hi8... pero tambiénde los profesionales Betacamde Sony yel U-matic alta banda, los dos con calidadde emisión (Broadcast).

EDICIÓN NO LINEAL

Consiste en manipular material audiovisual sin ningún orden. Se puede colocaruna secuencia, después otra, luego una tercera, ampliar la primera, cambiar lasegunda por otra. Es la edición de archivos digitalizados a través de programasinformáticos para manipular los archivos. Una vez realizado el montaje, se puedeexportar a un archivo para reproducirlo en la Web, CD, DVD o dispositivosportátiles como un ipod, psp, mp3, etc.

La edición no lineal es la utilizada por la tecnología digital. Esta forma de ediciónpermite ordenar los cuadros en el orden en que se deseen. Se puede tratarcualquier cuadro de imagen de forma directa sin necesidad de seguir toda lasecuencia, independiente de la forma y orden de como hemos grabado el video.

Estos equipos constaban de unmagnetoscopio grabador y variosreproductores, hasta 27 en algunos casos.El editor seleccionaba una primerasecuencia, después una según, luego unatercera... por su parte, la máquinacolocaba uno de los magnetoscopios alprincipio de la primera secuencia, elsegundo al principio de la segunda... Así elvisionado y la grabación eran continuos,pese a saltar de una fuente a otra. Cuandoel número de fragmentos era superior alde magnetoscopios, el primero libre quetuviera la secuencia deseaba sedesplazaba hasta el primer cuadro de lamisma y la reproducía cuando llegara elmomento.

Los equipos basados en cinta de vídeo aparecieron a principios de los ochenta, poco después de nacer los aparatos reproductores y grabadores domésticos (Konigsberg, 2004). Según Ohanian (1996, p. 88) el primero se denominabaMontagePicture Processor y salió al mercado en 1984. ParaJacobson (2010, p. 423) tal honor le corresponde al Ediflex, comercializado en 1983. Touch Visión lanzó por su parte el BHP Touch Vision de 1986. Todos empleaban cintas VHS oBetamax y funcionaron hasta la llegada de los equipos digitales. Estas máquinas ofrecían, entre otros subproductos, una EDL, una lista de corte de negativo y una copia de visionado.

SEGUNDA GENERACIÓN (POR DISCO LÁSER)

Esta generación surgió casi al mismo tiempo que la basada en cintade vídeo. Empleaba varios lectores de discos láser del tipo Velocidadangular constate (CAV en inglés), pero hubo excepciones. Enprincipio se necesitaban cuatro reproductores como mínimo, unopara suministrar las imágenes A, otro con el sonido de las imágenesA, un tercero con las imágenes B y un cuarto con el sonido de lasimágenes B; pero con la posterior entrada de discos láser de doblecara y reproductores con doble cabezal el número de máquinasmínimas se redujo a dos.

En 1988 apareció el primer editor no lineal basada en uncomputador por entero, desde las fuentes hasta el resultadofinal. Se llamó EMC2 fabricado por Editing MachinesCorporation y usaba como plataforma un IBM PC. Lasimágenes se comprimían siguiendo el algoritmo compresiónasistido por hardware JPEG empleando la resolución visible delNTSC (720 columnas por 480 líneas). Respecto al audio susresoluciones podían variar entre 16 y 48 KHz. En total poseíauna capacidad máxima de 24 horas de material. A esteproducto le siguieron otros como el Avid Media Composer oelLightworks.

Sony había lanzado en 1986 la primera cinta digital, la D1, yestaba trabajando en el sistema de registro Betacam Digital;pero aún no era posible utilizar los archivos digitales comobrutos de cámara. Los equipos pertenecientes a estageneración digitalizaban las imágenes de vídeo o el telecinadoen caso de ser película utilizando la compresión JPEG, por lotanto, sufrían pérdida de calidad entre generaciones, tambiénse requería tiempo para digitalizar el material

Pese a que algunas marcas vendieron cientos o incluso miles de sistemas, constituían una inversión considerable porque incluían una tarjeta gráfica potente para mostrar las imágenes en pantalla, un procesador también potente para realizar los primeros y primitivos efectos digitales, una tarjeta compresora y descompresora para tratar el algoritmo JPGE, mucha memoria RAM para la época y varios discos duros de gran capacidad. Por ejemplo, una hora de material en sistema PAL requería un disco duro de 8.2 GBytes,3 en un tiempo que un GByte de almacenamiento podía llegar a costar 1 000 dólares

La tercera generación trajo varias novedades en comparación con las anteriores. Entre otras cabe destacar:

Con los nuevos medios podía exportarse un historial completo de acciones realizadas en lugar de una simple EDL, con lo cual todas las decisiones sobre cortinillas o sonido iban incluidas.

El acceso a cualquier parte del material era realmente aleatorio.

Varios efectos podían crearse con el propio aparato, caso de la titulación o la incorporación de imágenes.

CUARTA GENERACIÓN

Al contrario que las anteriores, la cuarta generación no sebasaba en nuevas tecnologías. Las ventajas aportadas porla generación anterior hacían presagiar un momentodonde la sala off-line y la sala on-line se unieran en unmismo equipo, es decir, que un sólo sistema pudieserealizar las concatenaciones de planos, la titulación, losefectos digitales, las capturas, la edición de audiomultipista, para producir un resultado en cinta o enarchivo informático con calidad suficiente para seremitido.

El Avid Media Composer 8000, aparecido en 1999, ya podía producir anuncios y programas de televisión con calidad suficiente como para sustituir a las dos salas. Esto se debió a varios factores entre los que destacan el abaratamiento en los sistemas de almacenamiento, tanto en memoria RAM como en disco y las mejores prestaciones de los programas, con editores de sonido multipistas o la posibilidad de crear nuevos efectos digitales.

La quinta generación de edición digital se diferencia de las demás por poder trabajar con brutos de cámara digitales en su formato nativo, el RAW. Esto se debió a la confluencia de varios factores. Por una parte, la mejora de la tecnología Flash con una capacidad de almacenamiento próxima a los cien GBytes por cada tarjeta, Por otra parte, al nacimiento de cámaras como la Red One capaces de grabar en 4K y hasta 30 fps una hora o más en tarjetas, por lo tanto con acceso aleatorio y sin necesidad de digitalización.

También ayudó la implantación de los dos sistemas de Televisión Digital Terrestreo TDT con el consiguiente "apagón" de las emisoras analógicas y la entrada de la llamada Televisión de alta definición (Carrasco, 2010, p. 268). Por último cabe mencionar la comercialización de procesadores con varios núcleos y potencia suficiente para calcular 124 o más grupos de operaciones visuales por segundo, con lo cual un mismo sistema informático podía realizar todo tipo de efectos digitales,etalonado, incrustaciones... acompañados de memorias RAM con varios GBytes de capacidad y tarjetas gráficas de medio GByte o más, con lo cual, hasta los equipos domésticos eran capaces para procesar televisión de alta definición, inicialmente HD Ready con 720 líneas y con algo más de potencia la Full HD con 1080.