Edición de vídeo

De Wikipedia, la enciclopedia libre
Saltar a: navegación, búsqueda
Sistema de edición analógica.

La edición de vídeo es un proceso por el cual un editor coloca fragmentos de vídeo, fotografías, gráficos, efectos digitales o cualquier otro material audiovisual en una cinta de vídeo o un archivo informático llamado master para generar después las distintas copias. En la mayoría de los casos se incluye audio que puede ser música, efectos de sonido, diálogo de personajes, pero también existen ediciones donde únicamente se utilizan medios visuales.

El término edición solía confundirse con la palabra montaje por ser muy parecidos en sus objetivos, pero inicialmente la edición se refería únicamente al vídeo y empleaba medios técnicos muy diferentes a los del montaje, que sería una palabra del mundo cinematográfico. Posteriormente la informatización ha unido los dos.

Antes de las cámaras digitales y los ordenadores personales existían varios tipos de ediciones, pero casi todas han ido desapareciendo hasta quedar únicamente la no lineal con acceso aleatorio en sus modalidades por corte y A/B roll.

La evolución hasta la edición de vídeo actual ha pasado por varias fases debido principalmente a la dificultad para tratar una señal electrónica con tanto ancho de banda. Inicialmente se trató de imitar el proceso de cortar y pegar seguido en el cine. Unos doce años después se impuso la edición lineal con dos o más fuentes y en dos salas diferentes. Con la llegada de los ordenadores se intentó volver al sistema no lineal hasta que comenzó a conseguirse en 1992 con el surgimiento de los ordenadores personales, los algoritmos de compresión y las memorias flash.

Definición[editar]

Para Aguilera, Morante y Arroyo (2011, p. 303) editar un vídeo consiste simplemente en manipularlo. Con manipular se entiende ir uniendo unas imágenes a otras, eliminando imágenes, ampliando o reduciendo algunas ya editadas, añadiendo música y sonido, efectos digitales, títulos y cualquier otro componente que permitiese un producto listo para ser duplicado o emitido.

Todo ello en un soporte diferente llamada master del que luego se obtendrían las distintas copias, aunque también podía realizarse en el mismo donde se tomaban las imágenes, en esta caso sería una edición en cinta.[1] El master solía ser una cinta de vídeo, pero con el nacimiento de la edición digital en la década de 1990 se fue prescindiendo del soporte físico para realizar todo el proceso en un archivo digital.[2]

Tipos de edición[editar]

Espinosa y Abbad (2005, p. 161) recopilan siete tipos diferentes dependiendo del criterio elegido.

  • Según la facilidad para acceder al material: si se puede cambiar cualquier parte de la edición sin afectar al resto sería la edición no lineal, sino sería edición lineal, es decir, en una edición no lineal ampliar o reducir una escena se puede hacer sin mayor problema, pero en una lineal sería necesario volver a editar todo el material posterior. Esta diferencia no estriba sólo en las modificaciones, sino también en el propio visionado de partes del material; es decir, para llegar a un punto determinado, en una edición lineal es necesario avanzar o rebobinar la cinta, ya sean brutos de cámara o master. Carrasco (2010) y otros autores indica que la edición lineal desapareció con la llegada de los medios digitales.
  • Según la calidad del acabado: si el producto final tiene la calidad deseada, es un producto ya terminado, sería edición on line. Por el contrario, si se obtiene un resultado intermedio, para dar una idea de lo que se desea, sería edición off-line. En este último caso y según Ohanian (1996), además de la edición en sí, también llamada copia de visionado, se obtendrían otros subproductos como una lista de corte de negativo, para saber qué partes de la película original hay que positivar, o una lista de decisiones de edición (EDL del inglés Edition Decision List), para conocer los puntos de entrada y salida de las distintas tomas brutas cuando después se realice la edición on-line. Nuevamente y siguiendo al mismo autor, esta clasificación ha desaparecido porque las computadoras son capaces de realizar productos con calidad de emisión, incluso para el cine.
  • Según la técnica de grabación utilizada: si la edición se ha realizado en una cinta virgen estaríamos ante una edición por asamble. Una modalidad de la edición por asamble sería la ya citada edición en cinta donde se pueden grabar tanto la imagen como el sonido y cuando está termina la grabación también está terminada la edición. Por el contrario, si la cinta ya no es virgen, posee una pista con código de tiempo o incluso planos y sonidos, se denomina edición por inserto. Con la llegada de los sistemas digitales estas ediciones se dejaron de utilizar.
  • Edición en cinta: era la realizada en una cinta de vídeo grabando un plano tras otro, de tal forma que dicha edición terminaba cuando se terminaba la grabación de las distintas tomas. Actualmente no existe como tal porque las cámaras digitales graban en archivos independientes que se pueden reproducir por orden de grabación, pero también por orden alfabético, por peso del archivo, por tipo, etc.

A estas Ohanian (1996) añadiría un criterio más:

Diferencias entre montaje y edición[editar]

En ocasiones pueden aparecer las dos palabras como sinónimos;[3] aún cuando se refieren a procesos muy diferentes, al menos hasta la llegada de los equipos digitales. Sucede también algo similar con los términos cuadro y fotograma o grabación y filmación, que pueden escucharse indistintamente en los ámbitos de vídeo y cine, cuando son o eran también distintos. La razón de diferenciar los dos términos es porque cada palabra ya indica implícitamente los procesos previos requeridos, el material necesario, la calidad con la que se trabajará, etc.

La edición es un término propio de los soportes magnéticos, ya sea en cinta, memoria flash, disco magnético... Se utiliza material audiovisual grabado para obtener una cinta o un archivo de computadora. Habitualmente requería muchos menos procesos y unos costes bastante inferiores a los del montaje, pero la calidad de la imagen solía ser inferior hasta la llegada del siglo XXI.[4]

El montaje, por su parte, se realizaba con película de cine, del tamaño que fuese, pero siempre partiendo de una emulsión fotosensible. Durante todo el proceso se podía recurrir al vídeo, pero su objetivo final era obtener una lista de corte de negativo, para volver a positivar las partes elegidas y realizar un montaje limpio, ya que la primera copia realizada solía estar muy deteriorada por los sucesivos manipulados. Con la lista se realizaba el corte físico de los negativos seleccionados, dichos negativos se positivaban, los positivos se empalmaban y se añadía la banda sonora para obtener después los interpositivos necesarios. Con ellos se realizarían después las copias que fuesen precisas.[5] Según Carrasco (2010, p. 43) este montaje analógico hace años que desapareció.

En el siglo XXI se ha ido produciendo una convergencia de los dos sistemas que actualmente sólo se diferencias por su resolución y calidad, no necesariamente por su soporte, al poder ser digitales los dos y manejados en ocasiones con equipos idénticos. Bien es verdad que, por razones de amortización, coste, preferencias o de otra índole, en ocasiones se recurre a medios distintos para el cine y el vídeo.[6]

Problemas iniciales[editar]

Cinta de 2 pulgadas (50 mm) y de bobina abierta producida por Amex.

El vídeo nació para poder guardar las producciones de televisión, pero lo hizo mucho después que esta, por las dificultades técnicas para grabar una señal eléctrica. Si la televisión data de los años 1920, dependiendo de los países, el vídeo no apareció hasta unos treinta años después. Según Pérez Vega y Zamanillo Sainz de la Maza (2003, p. 72) la televisión desde su nacimiento trató de grabar su señal siguiendo un sistema parecido al del sonido, pero el ancho de banda que requiere la imagen lo hacía muy difícil. Durante esas décadas los programas se podían realizar de tres formas, en vivo, desde un discos de cristal utilizando un proceso parecido al empleado para grabar discos de vinilo o bien proyectando una película de cine en pantalla mientras una cámara de televisión recogía las imágenes y transmitía la señal hasta el emisor. Para Ohanian (1996, p. 30) las dos últimas soluciones resultaban lentas y complicadas.

No fue hasta 1956 cuando Ampex logró desarrollar el magnetoscopio Cuadruplex. La máquina grababa en grandes bobinas magnéticas abiertas de dos pulgadas movidas a gran velocidad por motores de potencia considerable.[7] Pese a su aparatosidad y precio, el magnetoscopio aportó a la televisión numerosas ventajas frente al cine. Se podía grabar el sonido al mismo tiempo que la imagen y en el mismo soporte, no necesita esperar al revelado, no requería crear una copia de trabajo en positivo, los equipos y soportes eran más baratos o iban camino de serlo... Por contra, mirando una cinta de vídeo resulta imposible saber en que parte comienza tal fragmento, como si permite el cine.[8]

Cintas Betacam SP de bobina cerrada.

Pese a ser Ampex la primera empresa en lanzar la grabación en cinta, este soporte no llegó a convertirse en algo homologado que se pudiera reproducir en cualquier magnetoscopio del mundo. Hasta la década de 1970 las ediciones profesionales se realizaban en cintas de 2". En 1978 salió la cinta de vídeo C1 de una pulgada (unos 5.5 cm) de bobina abierta, que se convirtió en el estándar profesional durante los años 1980.[8] . Posteriormente apareció el formato Alta Banda en cinta de 3/4 de pulgada (unos 2 cm de anchura) de la empresa U-Matic. Por su parte Sony desarrolló la Betacam con 625 líneas de definición en cinta cerrada y pistas helicoidales, inclinadas,[9] que ofrecía una calidad igual con motores menos potentes, pero requería cabezales propios no compatibles. Toda esta variedad de tamaños, formatos, resoluciones... conllevaba varios procesos de conversión que a veces podían ser largos y caros por necesitar incluso máquinas especiales (Konigsberg, 2004).[n. 2] Aún con todo e incluso empleando los equipos de mayor calidad y precio, el vídeo solía resultar más económicos que utilizar películas fotosensibles, pese a no igualar su calidad visual, como mucho un cuadro de vídeo posee 625 líneas de definición frete a las casi 4100 de un fotograma de 32 mm.[10]

Evolución de la edición de vídeo[editar]

Las películas de 35 mm o de 16 mm permiten ver donde cortar, el vídeo no.

Primitiva edición no lineal[editar]

Cuando nació el vídeo el único proceso conocido hasta entonces era el montaje de películas con fotogramas que se podía cortar y empalmar unos a otros. Si se necesitaba reducir la duración podía volverse a cortar la copia de trabajo y desechar el trozo no deseado, lo mismo en el caso de aumentar unos segundos, esto resultaba más laborioso pero también era posible.[n. 3]

Cuando Ampex fabricó en 1956 el primer grabador de vídeo lanzó dos años después al mercado una empalmadora que posibilitaba cortar la cinta entre cuadro y cuadro, marcados con una serie de partículas metálicas. Después los fragmentos deseados se unían con la empalmadora empleando un pegamento especial. Era una edición no lineal porque permitía acceder a cualquier segmento sin afectar a los anteriores o posteriores.[11] Sin embargo, emplear empalmadoras como la de Ampex se confesó poco eficiente por lo impreciso del sistema y el tiempo que llevaba desmontar la cinta del magnetoscopio, manipularla y volver a montar. No es que los montajes en cine fueran más rápidos, pero pronto se comprobó que había una forma más eficiente.

Según Ohanian (1996, p. 31) resulta irónico que todo los esfuerzos posteriores fueran encaminados a volver otra vez a esta edición no lineal que comenzó en 1958, estuvo en pleno apogeo en la década siguiente y aún se siguió utilizando a principios de los setenta.

Edición lineal[editar]

Detalle del equipamiento para realizar ediciones lineales. Varios monitores y magnetoscopios, mesa para la edición de sonido y consola con línea de tiempos con el botón de Previo en la izquierda, los dos amarillos en el centro para introducir los puntos de entrada y de salida y los de cortinillas en violeta.

Ohanian (1996, p. 31 y siguientes) afirma que los problemas de la edición no lineal podían salvarse utilizando dos o más magnetoscopios, también llamado VTR por las siglas en inglés de Video Tape Record, pero el sector audiovisual tardó unos quince años en implantar la fórmula. El proceso sería el siguiente: un VTR haría las veces de fuente, también llamado lector, reproductor o player. Dotado con un monitor, este magnetoscopio mostraría en todo momento la parte de la cinta sobre la que se hallaban sus cabezales. El otro, llamado grabador o recorder, también contaría con un monitor para saber el punto donde comenzaría la grabación y sería el que iría creando la cinta master. Con esto se perdía un 8% de calidad aproximadamente, al necesitar una segunda generación, pero quedaba resuelto el problema de ver los cuadros exactos de reproducción y de grabación sin desmontar nada. Las dos máquinas podía conectarse directamente y realizar la llamada edición por corte, aunque también era posible instalar varios magnetoscopios fuentes y un mezclador de vídeo con el que realizar cortinillas, fundidos o encadenados, posibilitando la edición A/B roll. Con mezclador o sin él, el empleo de varios magnetoscopios trajo la edición lineal. Para Konigsberg (2004, p. 183) estas ventajas hicieron que la primitiva edición no lineal quedara obsoleta.

Browen (2003) describe tres formas de realizar una edición lineal: la Playrec, donde se grababa vídeo y sonido preparando a la cinta para futuras grabaciones, Assemble que sincronizava los dos magnetoscopios para comenzar a grabar la imagen deseada y el Inserto, con el cuan se incrustaba una imagen sobre otra ya grabadas sin alterar al resto.

Con el fin de reducir el tiempo para localizar el cuadro exacto en la fuente y en el master, en 1967 la empresa EECO produjo las cintas con código de tiempos, mostraban enpantalla hora, minuto, segundo y cuadro. Cinco años después, la SMPTEE (Society of Motion Picture and Television Engineers) y la UER (Unión Europea de Radiodifusión) crearon el estándar SMPTE para códigos de tiempo. Esto permitía ir al punto deseado y grabar lo que se quería donde se quería, además, las mejoras electrónicas posibilitaron el nacimiento de las mesas de edición, también llamadas consolas, que aunaban el manejo de los dos magnetoscopios sincronizados y el mezclador de imágenes, con un ahorro en horas de trabajo considerable.[12]

Problemas e inconvenientes[editar]

Browen (2003) destacaba:

  • Era posible cambiar la duración de la última secuencia, las mesas de mezclas y controladores solían contar con la opción "previo" para ver antes la última decisión tomada y hacer cambios, pero no más atrás sin afectar a las siguientes. Si se modificaba la duración de una parte intermedia el master debía ser editado de nuevo por assemble desde ese punto, introduciendo de nuevo los puntos de entrada y salida una por una.
  • No se guardaba un histórico, por tanto, si se debía repetir la edición por el motivo que fuera la duración de los encadenados, los niveles de sonido, los tipos de cortinillas... debían ser vueltos a elegir.
  • En ausencia del master, las sucesivas copias se debían realizar de otras que recibirán el nombre de tercera, cuarta, quinta... generación, perdiendo calidad de imagen y sonido. Hay que destacar la existen cintas de vídeo digitales, como los formatos de la familia DV, DVCAM de Sony o el DVCPro 25 de Panasonic, con las que las sucesivas grabaciones no perdían calidad, pero aparecieron casi al mismo tiempo que la tercera generación de sistemas de la edición no lineal.
  • Según Carrasco (2010, p. 133), la política y la técnica, crearon nuevos problemas con los distintos formatos y las diferentes oportunidades que la técnica dio para unificarlos fueron desaprovechadas. Al contrario que el cine, que con el tiempo terminó en dos anchos de películas que podían reproducirse en cualquier productor del mundo, en el vídeo muchos de los trabajos profesionales debían terminarse pensando en obtener copias para el NTSC estadounidense de 525 líneas de definición; pero también para el PAL europeo de 625 líneas, de las que solo 575 eran visibles, e incluso para el SECAM.[n. 4] Esta variedad de sistemas exigía salas de edición preparadas con magnetoscopios fuentes y grabadores en varios formatos. Además existían inconveniente añadidos a la hora de pasar el cine al formato vídeo.[n. 5] Por si estos problemas eran pocos, había que tener en cuenta los distintos formados de cintas antes citados.

Equipamiento necesario[editar]

Sala on-line en 1999.

Los equipos para realizar una edición lineal pueden ser muy variados, desde dos magnetoscopios conectados donde se va editando por corte hasta grandes salas on-line capaces de generar efectos similares a las del cine. Pero una sala datada de todos esos medios resultaba cara de instalar y alquilar, Ohanian (1996, p. 64) calculaba que podía costar entre 500 000 y un millón de dólares y su alquiler entre los 300 y los 1 000 dólares la hora, todo a precios de los años 1990. Frente a esto se podían habilitar otras salas por importes comprendidos entre 20 000 y 40 000 dólares. La idea era conseguir depurar el proyecto antes de alquilar una de las otras. Así nacieron las "pre-ediciones" creadas en las denominadas salas off-line, donde se obtenía una copia de visionado con algo muy parecido al resultado final. Además, las salas off-line ofrecían una lista de decisiones de edición (EDL por sus siglas en inglés) o una lista de corte de negativo para las películas de cine.

La división del trabajo en dos sales debía funcionar en teoría, pero en la práctica los equipos de la sala off-line eran demasiado pobres como para poder hacerse una idea del resultado, las EDL no se reproducían con exactitud debido a problemas de compatibilidad entre las dos salas, tampoco contenía absolutamente todas las decisiones tomadas, ni detalles como la velocidad de los fundidos o las variaciones en la pista de sonido. Por tanto, muchas acciones debían volverse a tomar en la cara sala on-line.[8]

Edición no lineal con acceso aleatorio[editar]

sala de edición no lineal.

Como se ha indicado, esta edición no lineal no fue la primera que apareció; pero la diferencia con la que utilizaba empalmadoras estriba en tres diferencias: el empleo de computadoras en algún momento del proceso, permitir ver el punto concreto de corte y manipular el material de las fuentes sin ningún orden.

El término acceso aleatorio se debe a la capacidad de visionar un fragmento cualquiera del "master" o de las fuentes de forma casi instantánea, lo mismo que saltar inmediatamente a otro.[8] Las opciones de edición descritas antes desparecen de facto porque no se trabaja sobre una cinta master como tal. Las instrucciones son guardabas en un ordenador y se modifican cuantas veces sea necesario, pudiendo después entregar el número de copias que se quieran o varios sub-productos más.[13]

La edición no lineal perseguía sustituir a la sala off-line, que no había cumplido sus expectativas de llevar un resultado mucho más acabado a la sala on-line,[13] pero el incremento de la potencia y capacidad de las computadoras ha convertido a estas salas en definitivas.[14] No sólo para el vídeo, sino también para producciones de cine, incluso de varias películas al mismo tiempo.[15]

El primer intento de crear un sustituto de la sala off-line lo llevó a cabo CMX Editing Systems cuando sacó al mercado el CMX 600. Este sistema utilizaba discos magnéticos de 36 MB para grabar la imagen de una manera híbrida, no totalmente digital.[13] Permitía acceder a cualquier escena del material bruto, borrar cualquier escena del master, ampliar la duración, reducirla, etc.[16] Pero sus 200 000 $ dólares de coste y la programación aún no depurada le impidieron ser en un éxito comercial, pese a seguir en uso durante años para edición de sonido totalmente digital.[8] Según Ohanian (1996, p. 81), era un sistema muy avanzado para su época, quizá demasiado avanzado.

Primera generación (por cinta de vídeo)[editar]

Cintas de vídeo Betamax y VHS, sobre las que se basaba la primera generación de edición no lineal con acceso aleatorio.

Estos equipos constaban de un magnetoscopio grabador y varios reproductores, hasta 27 en algunos casos. El editor seleccionaba una secuencia, después una segunda, luego una tercera... por su parte, el sistema colocaba uno de los magnetoscopios al principio de la primera secuencia, el segundo al principio de la segunda, el siguiente al principio de la tercera... y los ponía en marcha cuando correspondiera. Así el visionado y la grabación eran continuos, pese a estar saltando continuamente de una fuente a otra. Cuando el número de fragmentos era superior al de magnetoscopios, el primero libre que tuviera la secuencia deseaba se desplazaba hasta el primer cuadro de la misma y la reproducía cuando llegara el momento.[17]

Los equipos basados en cinta de vídeo aparecieron a principios de los ochenta, poco después de nacer los aparatos reproductores y grabadores domésticos.[14] Según Ohanian (1996, p. 88) el primero se denominaba Montage Picture Processor y salió al mercado en 1984. Para Jacobson (2010, p. 423) tal honor le corresponde al Ediflex, comercializado en 1983. Touch Visión lanzó por su parte el BHP Touch Vision de 1986. Todos empleaban cintas VHS o Betamax y ofrecían, entre otros subproductos, una EDL, una lista de corte de negativo y una copia de visionado.

El hecho de que siguieran funcionando hasta la entrada de los equipos digitales es prueba de su éxito, pero presentaba varios problemas. Uno lo constituía el volcado del material, que debía realizarse previamente a una o más cintas de vídeo. Otro era el denominaba colapso y se producía cuando ninguna máquina tenía tiempo suficiente para llegar la siguiente imagen. Debe tenerse en cuenta que acceder a un determinado cuadro podía requerir varios decenas de segundos, dependiendo de la longitud de la cinta y de la posición en que se hallen los cabezales lectores. Una posible solución era colocar la misma grabación en varios magnetoscopios, pero eso reducía la cantidad de material bruto disponible. Por todo, estos sistemas eran más adecuado para series de televisión o películas que anuncios o informativos.[18]

Segunda generación (por disco láser)[editar]

Reproductor de discos láser.

Esta generación surgió casi al mismo tiempo que la basada en cinta de vídeo. Empleaba varios lectores de discos láser del tipo Velocidad angular constate (CAV en inglés), pero hubo excepciones.[n. 6] En principio se necesitaban cuatro reproductores como mínimo, uno para suministrar las imágenes A, otro con el sonido de las imágenes A, un tercero con las imágenes B y un cuarto con el sonido de las imágenes B; pero con la posterior entrada de discos láser de doble cara y reproductores con doble cabezal el número de máquinas mínimas se redujo a dos, informa Ohanian (1996, p. 106 y siguientes).

Según Jacobson (2010, p. 423) el primer equipo basado en disco láser usado en Hollywood fue obra de George Lucas: el Editdroid, aparecido en 1984, además era el primero en incluir una interface gráfica con línea de tiempo.[19] Posteriormente surgieron el CMX 6000, el Epix y el Laser Edit. Todos ellos reducían bastante los problemas de colapso, especialmente cuando surgieron los lectores de discos con dos cabezales; pero no llegaban a eliminarlos. El tiempo de acceso a las imágenes mejoró notablemente al ser de dos segundos como máximo.[20]

Como inconvenientes Ohanian (1996, p. 106 y siguientes) destaca tres: el aumento en el tiempo de volcado, por ser el proceso de grabación más lento y difícil en un videodisco que en una cinta; la escasa cantidad de material bruto disponibles o bien el elevado número de máquinas reproductoras y de discos grabados; y, por último, la necesidad de ir añadiendo más equipamiento porque las cortinillas y los efectos debían realizarse por programación, pero también por dispositivos físicos, lo cual los limitaba considerablemente. Pese a estos inconvenientes, los sistemas basados en esta tecnología siguieron existiendo hasta bien entrados los años noventa del siglo XX y se utilizaron tanto para series y películas como para informativos y anuncios.[18]

Tercera generación (por disco magnético)[editar]

El Avid Media Composer, uno de los primeros editores digitales con acceso aleatorio.

Según Ohanian (1996, p. 367) en 1988 apareció el primer editor no lineal basada en un computador por entero, desde las fuentes hasta el resultado final. Se llamó EMC2 fabricado por Editing Machines Corporation y usaba como plataforma un IBM PC. Las imágenes se comprimían siguiendo el algoritmo compresión asistido por hardware JPEG. En un principio el sistema utilizaba la resolución visible del NTSC (720 columnas por 480 líneas), pero pronto se amplió.[n. 7] Respecto al audio sus resoluciones podían variar entre 16 y 48 KHz. En total poseía una capacidad máxima de 24 horas de material. A este producto le siguieron otros como el Avid Media Composer o el Lightworks.

Aunque Sony había lanzado en 1986 la primera cinta digital, la D1, y estaba trabajando en el sistema de registro Betacam Digital; cuando nació esta generación todavía no era posible utilizar los archivos digitales como brutos de cámara. Todos estos equipos necesitaban digitalizar previamente las imágenes de vídeo o telecinar las de cine, por lo tanto, sufrían pérdida de calidad entre generaciones, también se requería tiempo para realizar estos procesos.

Pese a que algunas marcas vendieron cientos o incluso miles de sistemas, constituían una inversión considerable. Cada uno incluía una tarjeta gráfica potente para mostrar las imágenes en pantalla, un procesador también potente para realizar los primeros y primitivos efectos digitales, una tarjeta compresora y descompresora para tratar el algoritmo JPGE, mucha memoria RAM para la época y varios discos duros de gran capacidad. Este último punto volvió a constituir un problema considerable porque una hora de material en sistema PAL requería un disco duro de 8.2 GBytes,[21] cuando Rosenberg (2011) afirma que un GByte de almacenamiento podía llegar a costar 1 000 dólares de la época,[n. 8] partiendo del 65/1, 65 horas de material material bruto para obtener una en el master, los equipos podían llegar a necesitar un desembolso superior al medio millón de dólares, solo en soportes de almacenamiento.

La tercera generación trajo varias novedades en comparación con las anteriores. Entre otras cabe destacar:[22] El acceso a cualquier parte del material era realmente aleatorio. Varios efectos podían crearse con el propio aparato, caso de la titulación o la incorporación de imágenes y, por último, se podía exportar un historial completo de acciones realizadas, en lugar de una simple EDL, con lo cual todas las decisiones sobre cortinillas o sonido iban incluidas.

Por contra, estos primeros esfuerzos adolecían de algunas desventajas,[22] como era el tiempo de proceso que necesitaban los efectos digitales complicados, el necesario volcado del material a digital con la correspondiente demora, la poca calidad a que podía trabajarse la imagen o, en caso de trabajar a la máxima calidad, el poco espacio para los brutos, además del mencionado costo de los soportes para el almacenamiento.

Cuarta generación (unión de las dos salas)[editar]

Edición de vídeo usando Avidemux.

Al contrario que las anteriores, la cuarta generación no se basaba en nuevas tecnologías. Ante las ventajas aportadas por la generación anterior expertos como Ohanian (1996) presagiaban un momento donde la sala off-line y la sala on-line se unieran en un mismo equipo, es decir, que un sólo sistema pudiese realizar las concatenaciones de planos, la titulación, los efectos digitales, las capturas, los cromas, la edición de audio multipista... para producir un resultado en cinta o en archivo informático con calidad suficiente para ser emitido. El mismo autor indica que la primera y la segunda generación pretendían sustituir a la sala off-line; pero desde 1992 ya surgieron equipos capaces de manejar también los magnetoscopios con las fuentes y, por tanto, lograr realizar un producto acabado, siempre y cuando no requiriese de grandes efectos visuales.

El Avid Media Composer 8000, aparecido en 1999, ya podía producir anuncios y programas de televisión con calidad suficiente como para sustituir a las dos salas.[23] Esto se debió a varios factores entre los que destacan el nacimiento en 1994 del algoritmo de compresión MPEG-2,[24] el abaratamiento en los sistemas de almacenamiento, tanto de memoria RAM como de disco, las mejores prestaciones de los programas para el trabajo con sonido multipistas o la posibilidad de crear nuevos efectos digitales.

Sin embargo, seguía presentando limitaciones:

  • El volcado del material continuaba siendo necesario en muchos casos, pese a la mejora de los sistemas de registro digital.
  • La capacidad de realizar cualquier efecto estaba lejos de conseguirse por la falta de potencia. Un Pentium II podía realizar como máximo, y no siempre, 16 operaciones audiovisuales por segundo, cuando máquinas dedicadas como el Quantel Painbox calculaban entre las 64 y las 128, la cantidad habitual para manipular imágenes en movimiento, añadir personajes o borrar cualquier detalle;[25] además de crear diseños gráficos con calidad de impresión (Rockport Publishers, 1997).
  • La posibilidad de generar cine digital también se veía lejana debido a la resolución necesaria. Mientras que la televisión en el sistema PAL requería de 625, líneas de definición, el formato de cine equivalente al 16 mm, el 2K, necesitaba 2 048 y el equivalente al 35 mm, llamado 4K, requería de 4 096;[26] por lo que una hora de película a estas resoluciones ocuparía comprimidas unos 24 y 48 GBytes respectivamente, en caso de utilizar un ratio con poca pérdida de calidad como el 10:1.

Quinta generación (Tarjetas de memoria Flash)[editar]

La quinta generación de sistemas no lineales ya son capaces de crear cualquier imagen en pantalla para vídeo y también para cine 2K o 4K.

La quinta generación de edición digital se diferenciaba de las demás por poder trabajar con brutos de cámara digitales en su formato nativo, el RAW. Esto se debió a la confluencia de varios factores.[27] Por una parte, la mejora en la tecnología de las memorias flash, con una capacidad de almacenamiento próxima a los cien GBytes por cada tarjeta.[28] Por otra, al nacimiento de cámaras como la Red One capaces de grabar en formato 4K y a 30 fps una hora o más, con acceso aleatorio y sin necesidad de digitalización.[27] También ayudó, indica Carrasco (2010, p. 268), la implantación de los dos sistemas de Televisión Digital Terrestre o TDT y la entrada de la llamada Televisión de alta definición, con el consiguiente "apagón" de las emisoras analógicas.[n. 9]

Así el Avid Film Composer servía como sala off-line de cine y también on-line de 4K muestreo a 4:4:4.[n. 10] Hasta el punto de que tres estaciones de la familia Media Composer trabajando en red fueron capaces de gestionar 128 000 GByte de imágenes, pertenecientes a 2 200 horas de filmación, para postproducir la trilogía de El Hobbit, dirigida por Peter Jackson. Otra posibilidad más era la de crear personajes totalmente digitales partiendo de capturas de movimiento, como Gollum,[15] con lo que se hacía realidad el concepto de Gestor de medios digitales, es decir, una máquina o equipo que fuese capaz de generar o de manejar todos o casi todos los efectos digitales que se quisieran, por complicados que llegasen a ser.

Véase también[editar]

Notas[editar]

  1. La expresión "A/B roll" viene también del cine y es una contracción de "A roll in B" cuando una escena se veía superpuesta o compartiendo pantalla con otra (Evans, 2006, p. 252)
  2. También aparecieron sistemas semidomésticos como el S-VHS o Hi-8 con unas 400 líneas y sistemas domésticos como el VHS, del consorcio liderado por JVC, el Betamax de Sony, 2000 alemán o 8mm japonés con algo más de 200 líneas.
  3. Ampliar una secuencia requería volver a cortar, empalmar más metraje previamente cortado y unir la parte ampliada con la siguiente.
  4. Este sistema francés lo adoptaron las colonias de París y la URSS por motivos políticos, pero con la entrada de la televisión digital y la alta definición no se intentó un SECAM digital, pasándose sus usuarios al sistema PAL digital, ver Carrasco (2010) para más detalles.
  5. Las películas de 16 mm o de 32 mm reproducían a 24 fotogramas por segundo, cuando el NTSC lo hacía a 30 cuadros por segundo y el PAL a 25, ver Carrasco (2010, p. 133).
  6. El tipo CAV permite movimiento lento, imagen congelada y el avance cuadro a cuadro, a cambio de tener solo 30 minutos de imágenes por cara, en lugar de los 60 ofrecidos por los de Velocidad lineal constante (CLV), según Ohanian (1996, p. 106 y siguientes) .
  7. El disminuir la cantidad de información tratando de no alterar la percepción humana constituye una constante del mundo audiovisual desde sus comienzos. El que las películas de cine se filmen y reproduzcan a 24 fotogramas por segundo perseguía este mismo fin. Resultaría más agradable visualmente filmar a 40 o más, como se hizo después con la entrada del cine digital; pero eso hubiera supuesto pasar de 20 kilogramos por película, incluida su lata de transporte, a casi el doble, lo que imposibilitaría una distribución mundial o nacional (Carrasco, 2010, p. 41). De la misma forma, para obtener una hora de material terminado se necesitan unas 65 horas de negativos guardados en latas herméticas para evitar la luz. Cada lata solía ser asegurada por si quedase inservible la película debido a un accidente y fuese necesario repetir el rodaje, en caso de duplicarse el número de fotogramas y con él el de latas sería necesario duplicar el importe de los seguros.
    A la televisión, prosigue Cuenca, Garrido y Quiles (1999, p. 68), le sucede algo parecido. El ancho de banda por el que se transmite no deja de ser una espacio limitado y no puede ampliarse, crearía interferencias con radares, señales de teléfono, satélites, etc. Por este motivo no se emite toda la información, sino que se intenta adaptarse al ojo humano, mucho más sensible a la luz que al color. Así aparecen los muestreos 4:2:2, 4:2:0 o 4:1:1, donde la luminancia se muestrea totalmente, pero los dos formatos de crominancia sufren una reducción.
  8. El cómputo realizado por Rosenberg (2011) es el siguiente:
    • Una trama de 680 x 420 pixeles = 307 200 bits.
    • Cada pixel necesita 24 bit de color (ocho para el rojo, ocho para el verde y ocho para el azul): 307 200 x 24 = 7 372 800 bits = 7.37Mbits.
    • Cada trama coloreada es mostrada a un ritmo de 25 por segundo: 7.37 Mb x 25 = 184.25 Mb/seg.
    • Cada hora se compone de 3600 segundos: 184.25 Mb/seg x 3 600 segundos = 662 400 Mbits/h.
    • Puesto que cada byte lo forman 8 bits: 662 400 /8 = 82 200 MBytes, aproximadamente 82.2 GBytes.
    • Tras aplicarle una compresión por hardware del algoritmo JPEG sin demasiada pérdida, un ratio de 10:1, la cantidad de memoria total sería: 82.2 GB / 10 = 8.2 GBytes.
  9. Por último, cabe mencionar la comercialización de procesadores con varios núcleos y potencia suficiente para calcular 124 o más grupos de operaciones visuales por segundo, con lo cual un mismo sistema informático podía realizar todo tipo de efectos digitales, etalonado, incrustaciones... acompañados de memorias RAM con varios GBytes de capacidad y tarjetas gráficas con una capacidad de procesamiento superior al medio GByte o más. Con estas mejoras, hasta los equipos domésticos eran capaces de procesar televisión de alta definición, inicialmente HD Ready, con 720 líneas, y con algo más de potencia la Full HD con 1080.
  10. La más alta calidad porque no tiene compresión con pérdida ni en la luminancia ni en los dos canales de crominancia, ver Cuenca, Garrido y Quiles (1999, p. 68).

Referencias[editar]

  1. Espinosa y Abbate, 2005, p. 161.
  2. Konigsberg, 2004, p. 183 y siguientes.
  3. Aguilera, Morante y Arroyo, 2011, p. 303.
  4. Konigsberg, 2004, p. 183.
  5. Konigsberg, 2004, p. 327 y siguientes.
  6. Carrasco, 2010.
  7. Pérez Vega y Zamanillo Sainz de la Maza, 2003, p. 72.
  8. a b c d e Ohanian, 1996.
  9. Konigsberg, 2004, p. 116.
  10. Carrasco, 2010, p. 33.
  11. Ohanian, 1996, p. 31.
  12. Ohanian, 1996, p. 31 y siguientes.
  13. a b c «CMX 600 Promo» (Vídeo) (en inglés). Sunnyvale: CMX. 1971. Consultado el 14 de junio de 2014. 
  14. a b Konigsberg , 2004.
  15. a b «La trilogía de El hobbit cobra vida con la magia de Media Composer». Los Ángeles: Avid Technology. 2014. Consultado el 19 de junio de 2014. 
  16. «CMX 600» (HTML) (en inglés). Sierra Madre: Archive.org. 2007. Consultado el 14 de junio de 2014. 
  17. Ohanian, 1996, p. 89 y siguientes.
  18. a b Ohanian, 1996, p. 90 y siguientes.
  19. Rosenberg, 2011.
  20. Ohanian, 1996, p. 106 y siguientes.
  21. «El vídeo digital, Historia, Resumen de las propiedades básicas, Descripción técnica, Interfaces y cables, Formatos de almacenamiento». Centrodeartigos.com. 2014. Consultado el 16 de junio de 2014. 
  22. a b Ohanian, 1996, p. 367 y siguientes.
  23. Konigsberg, 2004, p. 184.
  24. «Algoritmos de compresión» (PDF). Madrid: Educamadrid. Consultado el 16 de junio de 2014. 
  25. «Quantel Paintbox Demo». Berkshire: Quantel. 1990. Consultado el 16 de junio de 2014. 
  26. Carrasco, 2010, p. 70.
  27. a b «The History of RED Digital Cinema» (en inglés). Lo Ángeles: Red.com. 2014. Consultado el 19 de junio de 2014. 
  28. «RED ONE: the first 4K digital cinema camera from RED Digital Cinema» (en inglés). Los Ángeles: Red.com. 2014. Consultado el 19 de junio de 2014. 

Bibliografía[editar]

  1. Aguilera, Purificación; Morante, María; Arroyo, Eva (2011). Vídeo digital (Aplicaciones ofimáticas). Madrid: Editex. ISBN 9788490030806. 
  2. Browne, Steven E. (2003). Edición de vídeo. Madrid: Instituto Oficial de Radio Televisión Española. ISBN 9788488788535. 
  3. Espinosa, Susana; Abbate, Eduardo (2005). La producción de vídeo en el aula. Buenos Aires: Ediciones Colihue. ISBN 9505817592. 
  4. Evans, Russell (2006). Practical DV Filmmaking (en inglés) (segunda edición). Oxford: Focal Press. ISBN 978-0-240-80738-6. 
  5. Carrasco, Jorge (2010). Cine y televisión digital. Manual técnico. Barcelona: Edicions de la Universidad de Barcelona. ISBN 978-84-475-3457-9. 
  6. Cuenca, Pedro Ángel; Garrido, Antonio José; Quiles, Francisco José (1999). Codificación y transmisión robusta de señales de vídeo MEPG-2 de caudal variable sobre redes de transmisión asíncrona ATM. Toledo: Universidad de Castilla La Mancha. ISBN 9788484270133. 
  7. Jacobson, Mitch (2010). Mastering Multicamera Techniques: From Pre-production to Editing and Deliverables (en inglés). Oxford: Focal Press. ISBN 978-0-240-81176-5. 
  8. Konigsberg, Ira (2004). Diccionario técnico Akal de cine. Madrid: Akal. ISBN 9788446019022. 
  9. Pérez Vega, Constantino; Zamanillo Sainz de la Maza, José María (2003). Fundamentos de televisión analógica y digital. Santander: Universidad de Cantabria. ISBN 84-8102-355-8. 
  10. Ohanian, Thomas A. (1996). Edición digital no lineal. Madrid: Instituto Oficial de Radio Televisión Española. ISBN 9788488788177. 
  11. Rockport Publishers (1997). Diseño gráfico digital. Barcelona: Gustavo Gili. ISBN 968-887-336-5. 
  12. Rosenberg, John (2011). The Healthy Edit: Creative Techniques for Perfecting Your Movie (en inglés). Oxford: Focal Press. ISBN 978-0-240-81446-9. 

Enlaces externos[editar]