Edición de vídeo

De Wikipedia, la enciclopedia libre
(Redirigido desde «Edicion de video»)
Saltar a: navegación, búsqueda
Sistema de edición analógica.

La edición de vídeo es un proceso por el cual un editor coloca fragmentos de vídeo, fotografías, gráficos, efectos digitales o cualquier otro material audiovisual en una cinta de vídeo o un archivo informático llamado master para generar después las distintas copias. En la mayoría de los casos se incluye audio que puede ser música o el diálogo de personajes, pero también existen ediciones donde únicamente se utilizan medios visuales.

Independientemente de la transición empleada entre secuencias o los sistemas de registro y emisión, existen o existían dos tipos de edición de vídeo: la lineal, sin posibilidad de variar el tiempo de una secuencia intermedia sin afectar a las posteriores, y la no lineal, que suele ser digital desde los años 1990 (Konigsberg, 2004, p. 183 y siguientes). Usualmente la edición de vídeo se realizaba por medios analógicos lineales; pero en los años 1970 comenzaron a introducirse sucesivas generaciones de sistemas no lineales hasta la entrada de las computadoras en la década de 1990 y, con ellas, la edición digital imperante actualmente.

¿Edición o montaje?[editar]

En ocasiones se pueden oír las dos palabras como sinónimos cuando se refieren a procesos muy diferentes. Sucede también algo similar con los términos grabación y filmación, que pueden escuchar indistintamente para el proceso de vídeo y de cine, cuando eran muy distintos. Sin embargo, el distinguir las dos palabras resulta gran utilidad porque indican los procesos previos que se acometerán, el material que se necesitará, la calidad con la que se trabajará, etc.

La edición es término referido al vídeo. Se utiliza brutos de cámara grabados en soporte magnético generalmente. Dichos brutos se unen o unían en aparatos fabricados para manejar este sistema y su resultado final solía ser una cinta de vídeo. Habitualmente requería muchos menos procesos y unos costes bastante inferiores que los necesarios para realizar un montaje, pero la calidad también resultaba ser interior (Konigsberg, 2004, p. 183).

El montaje, por su parte, se realizaba con película de cine, del tamaño que sea, pero siempre partiendo de una cinta fotosensible. Durante todo el proceso se podía recurrir al vídeo, pero su objetivo final era obtener una lista de corte de negativo, la primera película obtenida solía estar mu deteriorada por los sucesivos manipulados. Después se realizaba el corte de los negativos seleccionados, se empalmaban y se añadía la banda sonora y demás acciones que permitan obtener después los positivos o interpositivos necesarios para realizar las copias que fuesen precisas (Konigsberg, 2004, p. 327 y siguientes).

En el siglo XXI se ha ido produciendo una convergencia de los dos sistemas que actualmente sólo se diferencias por su resolución, no necesariamente por su soporte, al poder ser digitales los dos y manejados en ocasiones con equipos idénticos. Bien es verdad que, por razones de amortización, coste, preferencias o de otra índole, en ocasiones se recurre a medios distintos para el cine y el vídeo.

Evolución de la edición de vídeo[editar]

La edición en vídeo surgió en los años 1950 con el nacimiento del propio vídeo, es decir, imágenes grabadas por sistemas magnéticos y no fotosensible, como era el cine. Anteriormente las grabaciones de televisión se debían realizar en discos de cristal por un proceso parecido al empleado para grabar discos de vinilo (Ohain, 1996, p. 30) o se proyectaba en una pantalla y se recogía con una cámara de televisión que transmitía la señal hasta el emisor.

El vídeo presentaba numerosas ventajas. Podía grabar el sonido al mismo tiempo que la imagen y en el mismo soporte, no necesita esperar al revelado, no requería crear una copia de trabajo en positivo, equipos y soportes eran más baratos o iban camino de serlo... Por contra, mirando la cinta no se podía saber en que toda leía el cabezal.

Primitiva edición no lineal[editar]

Cuando nació el vídeo el único proceso conocido hasta entonces era el de las películas, con fotogramas que se podía cortar y empalmar unos a otros, si se necesitaba reducir la duración podía volverse a cortar, lo mismo en el caso de aumentar unos segundos, esto podía ser un poco más laborioso, pero también posible. Resultaba un proceso no lineal porque se permitía acceder a cualquier segmento sin tener en cuenta los anteriores o posteriores. Tratando de imitar este trabajo Ampex fabricó en 1956 el primer grabador de vídeo empleando cintas de dos pulgadas y, para realizar un montaje con imágenes contenidas en varias cintas, lanzó al mercado una empalmadora que permitía cortaban las partes necesarias y unir los fragmentos deseados con un pegamento especial. Sin embargo, el proceso se confesó difícil y laborioso al no conocer los puntos de corte (Ohain, 1996, p. 31).

Edición lineal[editar]

Equipo de edición lineal con dos magnetoscopios.

Emplear empalmadoras como la de Ampex se confesó poco eficiente. Se podía obtener un resultado parecido utilizando un magnetoscopio como fuente para grabar las imágenes y sonidos en otro. Con esto se perdía un poco de calidad al necesitar una segunda generación, pero quedaba resuelto el problema de acercar con el punto exacto para el "corta y pega" porque se veía en el monitor del reproductor la imagen que iba a servir.

Hasta el surgimiento del mezclaror de vídeo esta edición solo podía realizarse por corte, las cortinillas para solapar dos imágenes no eran posibles. Se la denomina "lineal", porque los aparatos reproductores solo podían moverse hacia adelante o hacia atrás (Konigsberg, 2004, p. 183). Por tanto, para llegar a un momento determinado, era necesario avanzar o rebobinar la cinta, a más o a menos velocidad, pero siempre esperando a que los motores movieran todo el material.

Otra limitación de la edición lineal aparecía cuando se deseaba variar la duración de una secuencia intermedia o sustituirla por otra más corta o más larga. Entonces era necesario volver a editar todas las posteriores, debido a los problemas de rotura (ver más adelante) . Con todo, era un proceso barato y se fue popularizándose para otros sistemas como el VHS del consorcio liderado por JVC, el Betamax de Sony, 2000 alemán o 8mm japonés con algo más de 200 líneas de definición en cualquier caso. Más calidad daban el S-VHS o Hi-8 con unas 400 líneas empleados por profesionales para trabajo sin calidad broadcast.

Consola para edición con línea de tiempos Sony BVE-910. Apréciese el botón de Previo en la izquierda, los dos amarillos en el centro para introducir los puntos de entrada y de salida y los de cortinillas arriba en violeta.

Para reducir el tiempo de localizar el punto exacto de la fuente, en 1967 la empresa EECO produjo las cintas con código de tiempos con hora, minuto, segundo y cuadro de la cinta. Cinco años después, la SMPTEE (Society of Motion Picture and Television Engineers) y la UER (Unión Europea de Radiodifusión) crearon el estándar SMPTE. Esto, unido a la mejora de la informática, permitió el nacimiento de las mesas con código de tiempo y un ahorro en horas de trabajo al poder ir directamente al fragmento deseado si se sabía la hora, minuto, segundo y cuadro (Ohain, 1996, p. 31). Para realizar la edición con estas innovaciones se necesitaban por lo menos dos magnetoscopios, uno como fuente, lector o reproductor (player) y otro el grabador (recorder). El proceso de edición consiste en grabar en el recorder la señal reproducida por el player.[n. 1]

La invención del mezclador de vídeo permitió controlar más de un magnetoscopio y así apareció la edición A/B roll con capacidad para realizar encadenados y otras cortinillas al mezclar las imágenes de dos fuentes. La expresión "A/B roll" viene también del cine y es una contracción de "A roll in B" cuando una escena se veía superpuesta o compartiendo pantalla con otra (Evans, 2006, p. 252).

Grabadores de cintas C1 de una pulgada.

Había otro problema para la salas de edición. Muchos de los trabajos profesionales en vídeo debían terminarse pensando en realizar copias para el NTSC estadounidense de 525 líneas de definición con una frecuencia de 30 cuadros por segundo o para el PAL europeo de 625 líneas refrescadas 25 veces por segundo,[n. 2] además estaban los formatos de cine con películas de 16 mm y 32 mm principalmente y reproducido a 24 fotogramas por segundo. Por último, las salas debía estar preparadas con fuentes y grabadores de varios formatos. Durante la década de 1970 las ediciones profesionales se realizaban en cintas de 2". Pero en 1978 salió la cinta de vídeo C de 1" y bobina abierta, que se convirtió en el estándar profesional durante los años 1980 (Ohain, 1996). Posteriormente el formato Betacam de Sony con 625 líneas de definición fue imponiéndose dentro del ámbito profesional, pero sin llegar a monopolizarlo hasta la llegada del Betacam SP (Konigsberg, 2004, p. 116). Esta variedad de formatos conllevaba varios procesos de conversión que a veces podían ser largos y caros por necesitar incluso máquinas especiales (Konigsberg, 2004).

Opciones de la edición lineal[editar]

Según Browen (2003) las opciones para la edición eran:

  1. Playrec: resultaba la forma más simple de hacer edición, pues sólo había que apretar play y rec en el grabador. Con esto se grababa vídeo y sonido pistando el soporte al mismo tiempo, es decir se reordenaban sus partículas en pistas oblicuas para permitir después otras ediciones específicas, cambiar el audio y dotarla de un código de tiempo, ya fuera visible o no. Si la cinta era virgen, no se podía grabar ni con Assemble ni con Inserto, por eso era tan importante la operación Playrec, no sólo en el ámbito doméstico, también en el profesional. Esta operación necesitaba cinco segundos de sincronismos, que no se podía contar al no estar la cinta pistada. Las otras, Assemble e inserto, resultaban imposibles o muy defectuoso al carecer el soporte de sincronismos, no existían pistas sobre las que grabar.
  2. Assemble: igual que en Playrec, Assemble graba a la vez el vídeo y los canales uno (CH1) y dos (CH2) de audio. La diferencia es que los dos magnetoscopios se sintonizaban mediante un rebobinado de cinco segundos, lo cual permitía un corte limpio. Si en Playrec sólo se apretaba la tecla rec, en Assemble se indicaba los puntos de edición: el entry in, para el player y para el recorder, por esta razón se necesitaba una cinta pistada con código de tiempos. Este procedimiento borraba cualquier información que hubiese grabada previamente. Para acabar la edición había que pulsar la tecla stop o entry out. El Assemble se caracteriza porque al principio no ha habido rotura, pero al finalizar la grabación sí, ya que los cabezales graban en vertical, cuando las pistas eran oblicuas. Esto generaba la llamada "nieve", que iba descendiendo por la pantalla progresivamente, dejando ver paulatinamente la imagen grabada con anterioridad, en caso de haberla. Ver ejemplo en https://www.youtube.com/watch?v=vv95jLKY0Hw&list=UUjPGpPAZl_7rmeXsjHi9P1g.
  3. Inserto:permitía realizar ediciones separando el vídeo del audio (tanto de CH1 como del CH2). Se utilizaba la grabación helicoidal, es decir, los cabezales graban en posición oblicua y no vertical, coincidiendo con la inclinación de las pistas, por lo que una imagen sustituía a la otra y no se generaba esos momentos de "nieve" al final. El audio no se veía afectado al no tocar esa parte de la pista los cabezales.

Problemas e inconvenientes[editar]

Browen (2003) destacaba:

  • Era posible cambiar la última secuencia, las mesas de mezclas y controladores solían contar la opción de "previo", pero no más atrás.
  • No se guardaba un histórico, por tanto, si se modificaba la duración de una parte intermedia, las siguientes secuencias debían ser vueltas a editar por assemble, introduciendo de nuevo los puntos de inicio y fin de cada una.
  • Todo el trabajo debía realizarse de nuevo si el master sufría cualquier desperfecto que lo inutilizase.
  • En ausencia del master, se debían realizar copias de copias que recibirán el nombre de segunda, tercera... generación, perdiendo calidad de imagen y sonido con cada una. Hay que destacar la existen cintas de vídeo digitales, como los formatos de la familia DV, DVCam de Sony o el DVCPro 25 de Panasonic, con las que las sucesivas generaciones no perdían calidad, pero aparecieron casi al mismo tiempo de la edición no lineal.

Equipamiento necesario[editar]

Sala on-line en 1999.

Según Ohain (1996), una sala para realizar ediciones definitivas, denominada sala on-line, necesitaba por lo menos los siguientes equipos:

  • Dos o más magnetoscopios como fuentes.
  • Un magnetoscopio para la grabación.
  • Cámara para capturas de títulos.
  • Generador de efectos digitales.
  • Tituladora.
  • Un monitor para cada uno de los equipos.
  • Mesa de mezclas para las distintas señales.
  • Equipo de sonido.
  • Mesa de mezclas para el sonido.
  • Un grabador de disco para grabar y reproducir instrucciones digitales.
  • Cableado de gran calidad para conectar todos los dispositivos.

Ohain (1996, p. 64) concluía que un equipamiento así podía costar unos 500 000 dólares y su alquiler entre los 300 y los 1 000 dólares la hora, todo a precios de los años 1990.[n. 3] Por este motivo se realizaban pruebas y ediciones previas en salas con menos medios y menos coste, las denominadas salas off-line. En ellas se obtenía una lista de decisiones de edición (EDL por sus siglas en inglés) o una lista de corte de negativo que se imprimían o se grababa en disco para llevarla después a la sala on-line, ahorrando horas de alquiler.

La división del trabajo en dos sales debía funcionar en teoría, pero en la práctica los equipos de la sala off-line eran demasiado pobres como para poder hacerse una idea del resultado, las EDL no se podían reproducir perfectamente debido a problemas de compatibilidad entre las dos salas, tampoco contenía absolutamente todas las decisiones tomadas, ni detalles como la velocidad de los fundidos o las variaciones en la pista de sonido, que debían volver a realizarse (Ohain, 1996).

Edición no lineal[editar]

sala de edición no lineal.

Consiste en manipular material audiovisual sin ningún orden. Se puede colocar una secuencia, después otra, luego una tercera, ampliar la primera, cambiar la segunda por otra... Para los casos de edición no lineal con acceso aleatorio, visionar un fragmento cualquiera era casi instantáneo, lo mismo que saltar inmediatamente a otro en principio muy alejado (Ohain, 1996). Las opciones de edición descritas antes desparecieron de facto porque no se trabaja sobre un master. Las instrucciones son guardabas en un ordenador y se modificaban cuantas veces fuesen necesarias, pudiendo después entregar los masters que se quieran o varios sub-productos más, como una cinta de visionado, con el objetivo de abaratar la finalización del anuncio, película, documental....

La edición no lineal perseguía sustituir a la sala off-line, que no había cumplido sus expectativas, y llevar un resultado mucho más acabado a la sala on-line.[1] Por este motivo estos sistemas aportan la posibilidad de obtener cinta de visionado, lista de decisiones de edición (EDL por sus siglas en inglés) o lista de corte de negativo. Pero el incremento de la potencia y capacidad de las computadoras los ha ido convirtiendo en definitivos (Konigsberg , 2004).

El primer intento de crear un sustituto para la sala off-line lo llevó a cabo CMX Editing Systems cuando sacó al mercado el CMX 600.[1] Era un sistema muy avanzado para su época porque almacenaba la información en discos magnéticos de una manera híbrida, no totalmente digital.[2] Permitía acceder a cualquier escena del material bruto, borrar cualquier escena del master, ampliar la duración, reducirla, etc. Pero sus 200 000 $ dólares de coste y la programación aún no depurada le impidieron ser en un éxito comercial, pese a seguir siendo utilizado después para edición de sonido totalmente digital (Ohain, 1996).

Primera generación (por cinta de vídeo)[editar]

Cintas de vídeo Betamax y VHS, sobre las que se basaba la primera generación de edición no lineal.

Estos equipos constaban de un magnetoscopio grabador y varios reproductores, hasta 27 en algunos casos. El editor seleccionaba una primera secuencia, después una según, luego una tercera... por su parte, la máquina colocaba uno de los magnetoscopios al principio de la primera secuencia, el segundo al principio de la segunda... Así el visionado y la grabación eran continuos, pese a saltar de una fuente a otra. Cuando el número de fragmentos era superior al de magnetoscopios, el primero libre que tuviera la secuencia deseaba se desplazaba hasta el primer cuadro de la misma y la reproducía cuando llegara el momento (Ohain, 1996, p. 89 y siguientes).

Los equipos basados en cinta de vídeo aparecieron a principios de los ochenta, poco después de nacer los aparatos reproductores y grabadores domésticos (Konigsberg, 2004). Según Ohanian (1996, p. 88) el primero se denominaba Montage Picture Processor y salió al mercado en 1984. Para Jacobson (2010, p. 423) tal honor le corresponde al Ediflex, comercializado en 1983. Touch Visión lanzó por su parte el BHP Touch Vision de 1986. Todos empleaban cintas VHS o Betamax y funcionaron hasta la llegada de los equipos digitales. Estas máquinas ofrecían, entre otros subproductos, una EDL, una lista de corte de negativo y una copia de visionado.

La generación en sí presentaba varios problemas, uno lo constituía el volcado del material, que debía realizarse previamente a una o más cintas de vídeo. Otro era el denominaba colapso y se producía cuando ninguna máquina tenía tiempo suficiente para llegar la siguiente imagen. Debe tenerse en cuenta que, dependiendo de la longitud de la cinta y de la posición en que se hallen los cabezales lectores, acceder a un determinado cuadro podía requerir varios decenas de segundos. Una posible solución era colocar la misma grabación en varios magnetoscopios, pero eso reducía la cantidad de material disponible.

Segunda generación (por disco láser)[editar]

Reproductor de discos láser.

Esta generación surgió casi al mismo tiempo que la basada en cinta de vídeo. Empleaba varios lectores de discos láser del tipo Velocidad angular constate (CAV en inglés), pero hubo excepciones.[n. 4] En principio se necesitaban cuatro reproductores como mínimo, uno para suministrar las imágenes A, otro con el sonido de las imágenes A, un tercero con las imágenes B y un cuarto con el sonido de las imágenes B; pero con la posterior entrada de discos láser de doble cara y reproductores con doble cabezal el número de máquinas mínimas se redujo a dos Ohanian (1996, p. 106 y siguientes).

Según Jacobson (2010, p. 423) el primer equipo basado en disco láser fue obra de George Lucas: el Editdroid, aparecido en 1984, además era el primero en incluir una interface gráfica con línea de tiempo (Rosenberg, 2011). Posteriormente surgieron en CMX 6000, el Epix y el Laser Edit. Todos ellos reducían bastante los problemas de colapso, especialmente cuando surgieron los lectores de discos con dos cabezales; pero no llegaban a eliminarlos. El tiempo de acceso a las imágenes mejoró notablemente al ser de dos segundos como máximo.

Como inconvenientes cabe destacar: el aumento en el tiempo de volcado, por ser el proceso de grabación más lento y complicado en un disco láser que en una cinta de vídeo. La escasa cantidad de material bruto disponibles o bien el elevado número de máquinas reproductoras y de discos grabados. Las cortinillas y los efectos debían realizarse por programación, pero también añadiendo dispositivos físicos, lo cual los limitaba considerablemente, Pese a todos los inconvenientes, los sistemas basados en esta tecnología siguieron existiendo hasta bien entrados los años noventa del siglo XX (Ohain, 1996).

Tercera generación (por disco magnético)[editar]

El Avid Media Composer, uno de los primeros editores digitales con acceso aleatorio.

En 1988 apareció el primer editor no lineal basada en un computador por entero, desde las fuentes hasta el resultado final. Se llamó EMC2 fabricado por Editing Machines Corporation y usaba como plataforma un IBM PC. Las imágenes se comprimían siguiendo el algoritmo compresión asistido por hardware JPEG, empleando la resolución visible del NTSC (720 columnas por 480 líneas).[n. 5] Respecto al audio sus resoluciones podían variar entre 16 y 48 KHz. En total poseía una capacidad máxima de 24 horas de material. A este producto le siguieron otros como el Avid Media Composer o el Lightworks (Ohanian, 1996, p. 367)

Sony había lanzado en 1986 la primera cinta digital, la D1, y estaba trabajando en el sistema de registro Betacam Digital; pero aún no era posible utilizar los archivos digitales como brutos de cámara. Los equipos pertenecientes a esta generación digitalizaban las imágenes de vídeo o el telecinado, en caso de ser película, utilizando la mencionada compresión JPEG, por lo tanto, sufrían pérdida de calidad entre generaciones, también se requería tiempo para digitalizar el material.

Pese a que algunas marcas vendieron cientos o incluso miles de sistemas, constituían una inversión considerable porque incluían una tarjeta gráfica potente para mostrar las imágenes en pantalla, un procesador también potente para realizar los primeros y primitivos efectos digitales, una tarjeta compresora y descompresora para tratar el algoritmo JPGE, mucha memoria RAM para la época y varios discos duros de gran capacidad. Por ejemplo, una hora de material en sistema PAL requería un disco duro de 8.2 GBytes,[3] cuando un GByte de almacenamiento podía llegar a costar 1 000 dólares (Rosenberg, 2011).[n. 6]

La tercera generación trajo varias novedades en comparación con las anteriores. Entre otras cabe destacar:

  • Con los nuevos medios podía exportarse un historial completo de acciones realizadas, en lugar de una simple EDL, con lo cual todas las decisiones sobre cortinillas o sonido iban incluidas.
  • El acceso a cualquier parte del material era realmente aleatorio.
  • Varios efectos podían crearse con el propio aparato, caso de la titulación o la incorporación de imágenes.

Por contra, estos primeros esfuerzos adolecían de algunas desventajas, como era el tiempo de proceso que necesitaban los efectos digitales complicados, el necesario volcado del material a digital con la correspondiente demora, la poca calidad a que podía trabajarse la imagen o, en caso de trabajar a la máxima calidad, el poco espacio para los brutos.

Cuarta generación (unión de las dos salas)[editar]

Edición de vídeo usando Avidemux.

Al contrario que las anteriores, la cuarta generación no se basaba en nuevas tecnologías. Las ventajas aportadas por la generación anterior hacían presagiar un momento donde la sala off-line y la sala on-line se unieran en un mismo equipo, es decir, que un sólo sistema pudiese realizar las concatenaciones de planos, la titulación, los efectos digitales, las capturas, los cromas, la edición de audio multipista... para producir un resultado en cinta o en archivo informático con calidad suficiente para ser emitido.

El Avid Media Composer 8000, aparecido en 1999, ya podía producir anuncios y programas de televisión con calidad suficiente como para sustituir a las dos salas. (Konigsberg, 2004, p. 184) Esto se debió a varios factores entre los que destacan el nacimiento en 1994 del algoritmo de compresión MPEG-2,[4] el abaratamiento en los sistemas de almacenamiento, tanto en memoria RAM como en disco, las mejores prestaciones de los programas para el trabajo con sonido multipistas o la posibilidad de crear nuevos efectos digitales.

Sin embargo, seguía presentando limitaciones:

  • El volcado del material continuaba siendo necesario en muchos casos, pese a la mejora de los sistemas de registro digital.
  • La capacidad de realizar cualquier efecto estaba lejos de conseguirse por la falta de potencia. Máquinas dedicadas como el Quantel Painbox eran capaces de realizar diseños gráficos con calidad de impresión (Rockport Publishers, 1997) y también manipular imágenes en movimiento, añadiendo y borrando cualquier detalle;[5] pero necesitaban realizar entre 64 y 128 grupos de operaciones por segundo, cuando el Pentium II llegaba como máximo, y no siempre, a 16.
  • La posibilidad de generar cine digital también se veía lejana debido a la resolución necesaria. Mientras que la televisión en el sistema PAL requería de 625 líneas de definición de las que solo 575 eran visibles, el 2K equivalente al 16 mm necesitaba 2048 y el 4K 4096 (Carrasco, 2010, p. 70); por lo que una hora de película requería entre 238.8 y 477.6 GBytes, unos 24 y 48 GBytes en caso de ser comprimida con poca pérdida de calidad como el 10:1.

Quinta generación (Tarjetas de memoria Flash)[editar]

La quinta generación de sistemas no lineales ya son capaces de crear cualquier imagen en pantalla para vídeo y también para cine 2K o 4 K.

La quinta generación de edición digital se diferencia de las demás por poder trabajar con brutos de cámara digitales en su formato nativo, el RAW. Esto se debió a la confluencia de varios factores.[6] Por una parte, la mejora de la tecnología Flash con una capacidad de almacenamiento próxima a los cien GBytes por cada tarjeta,[7] Por otra parte, al nacimiento de cámaras como la Red One capaces de grabar en 4K y hasta 30 fps una hora o más con acceso aleatorio y sin necesidad de digitalización.[6] También ayudó la implantación de los dos sistemas de Televisión Digital Terrestre o TDT con el consiguiente "apagón" de las emisoras analógicas y la entrada de la llamada Televisión de alta definición (Carrasco, 2010, p. 268). Por último cabe mencionar la comercialización de procesadores con varios núcleos y potencia suficiente para calcular 124 o más grupos de operaciones visuales por segundo, con lo cual un mismo sistema informático podía realizar todo tipo de efectos digitales, etalonado, incrustaciones... acompañados de memorias RAM con varios GBytes de capacidad y tarjetas gráficas de medio GByte o más. Con estas mejoras, hasta los equipos domésticos eran capaces para procesar televisión de alta definición, inicialmente HD Ready, con 720 líneas, y con algo más de potencia la Full HD con 1080.

Así el Avid Film Composer servía como sala off-line de cine y también on-line de 4K muestreo 4:4:4.[n. 7] Hasta el punto de que tres estaciones de la familia Media Composer trabajando en red fueron capaces de gestionar 128 000 GByte de imágenes, pertenecientes a 2 200 horas de filmación, para postproducir la trilogía de El Hobbit, dirigida por Peter Jackson. Además ya se podían crear personajes totalmente digitales partiendo de capturas de movimiento, como Gollum,[8] con lo que se hacía realidad el concepto de Gestor de medios digitales.

Véase también[editar]

Notas[editar]

  1. La característica que diferencia a los dos magnetoscopios es el botón rojo de rec, pues este botón no tiene porqué aparecer en el player. La cinta o cintas que contienen los brutos de cámara, los efecto digitales, los gráficos o las capturas de imágenes con la cámara de sala, En el grabador se inserta la cinta máster (primera cinta de montaje).
  2. Existía también el SECAM de origen francés, pero con la entrada de la televisión digital y la alta definición no se intentó un SECAM digital, pasándose sus usuarios al sistema PAL digital (Carrasco, 2010, p. 113).
  3. El precio es orientativo pues algunas máquinas dedicadas, como los generadores de efectos digitales, podían costar esa cantidad o más, caso del Quantel Paintbox.
  4. El tipo CAV permite movimiento lento, imagen congelada y el avance cuadro a cuadro, a cambio de tener solo 30 minutos de imágenes por cara, en lugar de los 60 ofrecidos por los de Velocidad lineal constante (CLV), según Ohanian (1996, p. 106 y siguientes) .
  5. El disminuir la cantidad de información tratando de no alterar la percepción humana constituye una constante del mundo audiovisual desde sus comienzos. El que las películas de cine se filmen y reproduzcan a 24 fotogramas por segundo perseguía este mismo fin. Se podía y se puede filmar a 48 y la percepción humana lo agradecería; pero eso hubiera supuesto pasar de 20 kilogramos por película, incluida su lata de transporte, al doble, lo que imposibilitaría una distribución mundial o nacional (Carrasco, 2010, p. 41). De la misma forma, para obtener una hora de material terminado se necesitan unas 65 horas de negativos guardados en latas herméticas para evitar la luz y cada una suele ser asegurada por si quedase inservible la película debido a un accidente y fuese necesario repetir el rodaje, en caso de duplicarse el número de fotogramas y con él el de latas sería necesario duplicar el importe de los seguros.
    A la televisión le sucede algo parecido. El ancho de banda por el que se transmite no deja de ser una espacio limitado y no puede ampliarse, crearía interferencias con radares, señales de teléfono, satélites, etc. Por este motivo no se emite toda la información, sino que se intenta adaptarse al ojo humano, mucho más sensible a la luz que al color. Así aparecen los muestreos 4:2:2, 4:2:0 o 4:1:1, donde la luminancia se muestrea totalmente, pero los dos formatos de crominancia sufren una reducción (Cuenca, Garrido y Quiles, 1999, p. 68).
  6. El cómputo realizado por Rosenberg (2011) es el siguiente:
    • Una trama de 680 x 420 pixeles = 307 200 bits.
    • Cada pixel necesita 24 bit de color (ocho para el rojo, ocho para el verde y ocho para el azul): 307 200 x 24 = 7 372 800 bits = 7.37Mbits.
    • Cada trama coloreada es mostrada a un ritmo de 25 por segundo: 7.37 Mb x 25 = 184.25 Mb/seg.
    • Cada hora se compone de 3600 segundos: 184 25 Mbits/seg x 3 600 segundos = 662 400 Mbits/h.
    • Puesto que cada byte lo forman 8 bits: 662 400 /8 = 82 200 MBytes, aproximadamente 82.2 GBytes.
    • La compresión por hardware del algoritmo JPEG contaba con un ratio de 10:1: 82.2 GB / 10 = 8.2 GBytes.
  7. La más alta calidad sin compresión.

Referencias[editar]

  1. a b «CMX 600 Promo» (en inglés) (Vídeo). Sunnyvale: CMX (1971). Consultado el 14 de junio de 2014.
  2. «CMX 600» (en inglés) (HTML). Sierra Madre: Archive.org (2007). Consultado el 14 de junio de 2014.
  3. «El vídeo digital, Historia, Resumen de las propiedades básicas, Descripción técnica, Interfaces y cables, Formatos de almacenamiento». Centrodeartigos.com (2014).
  4. «Algoritmos de compresión» (PDF). Madrid: Educamadrid. Consultado el 16 de junio de 2014.
  5. «Quantel Paintbox Demo». Berkshire: Quantel (1990). Consultado el 16 de junio de 2014.
  6. a b «The History of RED Digital Cinema» (en inglés). Lo Ángeles: Red.com (2014). Consultado el 19/6/2014.
  7. «RED ONE: the first 4K digital cinema camera from RED Digital Cinema» (en inglés). Los Ángeles: Red.com (2014). Consultado el 19/6/2014.
  8. «La trilogía de El hobbit cobra vida con la magia de Media Composer». Los Ángeles: Avid Technology (2014). Consultado el 19/6/2014.

Bibliografía[editar]

  1. Browne, Steven E. (2003). Edición de vídeo. Madrid: Instituto Oficial de Radio Televisión Española. ISBN 9788488788535. 
  2. Evans, Russell (2006). Practical DV Filmmaking (en inglés) (segunda edición). Oxford: Focal Press. ISBN 978-0-240-80738-6. 
  3. Carrasco, Jorge (2010). Cine y televisión digital. Manual técnico. Barcelona: Edicions de la Universidad de Barcelona. ISBN 978-84-475-3457-9. 
  4. Cuenca, Pedro Ángel; Garrido, Antonio José; Quiles, Francisco José (1999). Codificación y transmisión robusta de señales de vídeo MEPG-2 de caudal variable sobre redes de transmisión asíncrona ATM. Toledo: Universidad de Castilla La Mancha. ISBN 9788484270133. 
  5. Jacobson, Mitch (2010). Mastering Multicamera Techniques: From Pre-production to Editing and Deliverables (en inglés). Oxford: Focal Press. ISBN 978-0-240-81176-5. 
  6. Konigsberg, Ira (2004). Diccionario técnico Akal de cine. Madrid: Akal. ISBN 9788446019022. 
  7. Ohanian, Thomas A. (1996). Edición digital no lineal. Madrid: Instituto Oficial de Radio Televisión Española. ISBN 9788488788177. 
  8. Rockport Publishers (1997). Diseño gráfico digital. Barcelona: Gustavo Gili. ISBN 968-887-336-5. 
  9. Rosenberg, John (2011). The Healthy Edit: Creative Techniques for Perfecting Your Movie (en inglés). Oxford: Focal Press. ISBN 978-0-240-81446-9. 

Enlaces externos[editar]