Capítulo 2

15 de Abril de 2003

Sumario
Capítulo 1
Capítulo 2
Capítulo 3
Capítulo 4
Capítulo 5

Capítulo 2:

bullet

¿Que es la edición?

bullet

Formas de editar

bullet

Compresión y Descompresión

bullet

Formatos de Archivos de videos

bullet

Dispositivos de almacenamiento utilizados en los sistemas de Edición Digital:  
bullet

Dispositivos de almacenamiento para ordenadores

bullet

Características del disco

bullet

Tipos de disco para la edición digital  

          

 

 

 

 

¿Qué es la edición?

 

Una vez hecha la grabación, es necesario editarla para crear el producto terminado. Dado que se trata de un medio de grabación digital, es posible descargarlo a un computador y editar el video digital usando algún software.

 

La calidad de la reproducción del video en un computador, se verá afectado por la potencia del PC, esto determinará la tasa de reproducción y el tamaño de imagen permisible. Todos los paquetes de edición de bajo costo sólo reproducirán video entre 15 y 18 fps (frames per second), aún cuando el video real es de 25 fps, y muchos de ellos lo harán sólo a un cuarto del tamaño de la pantalla. Esto puede ser confuso, ya que, cuando la película terminada es cargada en una cinta, será reproducida nuevamente a 25 fps. El resultado es un video visiblemente borroso en el computador pero de buena calidad cuando se le reproduce nuevamente en cinta. Algunos paquetes soportan la conexión a un televisor a través de la cámara, de manera que permiten ver el video en calidad normal, al editar. El computador usado para editar video debe tener gran capacidad de almacenamiento, y con un segundo driver para almacenar video clips.

                                          

Un PC moderno, con un puerto Firewire, puede recibir el material directamente, usando un software de captura. Un PC sin estas características necesitará la instalación de una terjeta Firewire, la que puede ser análoga, análoga/digital o solamente digital. El video ocupa una gran cantidad de espacio, y, una vez que la edición se completa, el proceso de Rendering (completar el video terminado) puede demandar gran parte de la potencia de procesamiento del computador.

 

El video editado puede ser visto en el computador, pero lo más probable es que se desee ponerlo nuevamente en cinta ( DV y/o VHS), de modo que pueda ser exhibido. Además de la edición simple, muchos paquetes incluyen efectos, transiciones y la posibilidad de incluir subtítulos.

 

Formas de Editar

 

          Existen dos formas de editar, una que antiguamente se utilizaba que era la edición análoga o lineal y actualmente la edición digital o no lineal. A continuación se hará una relación en cuanto a las diferencias que ambas ediciones tienen.

          Consideremos la siguiente situación.  Supongamos que se tiene una serie de tres cintas correspondientes a unas reuniones de empresa semanales, y se necesita obtener una copia para el jefe en una cinta que contenga las tres reuniones.  Se conectan dos máquinas y, mientras una reproduce, la otra graba.  El orden que se elige es cronológico:

 

1.    Primera reunión el 14 de marzo.

2.    Segunda reunión el 21 de marzo.

3.    Tercera reunión el 28 de marzo.

         

          Después de copiar las cintas le advierten que la cinta que ya está terminada, debería comenzar con la última reunión y acabar con la primera.  El editor ha ordenado las cintas, justo al revés de como se quería.  Sólo hay una manera de hacer este cambio.  Se ha de repetir el proceso completo de nuevo.  Como el proceso de edición ha avanzado mucho desde el montaje físico de la cinta, el orden de las reuniones no se puede cambiar físicamente.  Todo el trabajo realizado no vale.  Se ha de realizar de nuevo el largo proceso de copiado hasta que cada uno de los tres segmentos esté en el orden correcto:

 

1.    Tercera reunión el 28 de marzo.

2.    Segunda reunión el 21 de marzo.

3.    Primera reunión el 14 de marzo.

 

          Si miramos la palabra "lineal" en un diccionario, encontrará que es un adjetivo que significa relativo o formado por una línea: recta.  La edición lineal significa adherirse al principio de ensamblar su programa de principio a fin, y que una vez que se ha colocado la segunda toma, ya no se puede recolocar o alterar fácilmente la primera toma, incluso aunque sólo sea añadir o quitar un único cuadro.  Todos los cambios sucesivos tendrán que grabarse de nuevo.  La naturaleza física del medio, condiciona la manera en que se ha de reordenar el material.         

          Compare esto con un ejemplo de edición no lineal.  El montador tiene tres escenas.  Inicialmente, decide que las tomas estarán en el siguiente orden: reloj, sillón y lámpara.  Después de ver la secuencia, quiere ponerlos en un nuevo orden sillón, reloj y lámpara.  Este cambio se lleva a cabo fácilmente, deshace, los empalmes, reordena las tomas y empalma la película de nuevo. 

En montaje de cine es una edición no lineal.  Los empalmes pueden hacerse en cualquier posición, y el metraje se puede añadir o quitar de cualquier posición.  El programa completo está en un estado manejable y puede cambiarse en cualquier punto.  Esta no linealidad ha existido siempre pero nunca se ha considerado como un atributo especial.

Compresión y Descompresión

 

En el caso del video digitalizado se hace especial hincapié en el tema de la compresión, ya que en el área de la informática siempre es un problema el tamaño que ocupan los archivos.

El programa controlador que comprime y descomprime un archivo de video se denomina codec, término compuesto derivado de la expresión inglesa compressor/decompressor, y es un algoritmo utilizado por la tarjeta de vídeo para capturar y almacenar el video en el disco duro del computador. 

Todos los codecs usan técnicas de compresión eliminando datos para salvar espacio en disco, sacrificando, en mayor o menor grado, la imagen original. La consecuente disminución de la calidad de la imagen es aceptable, pues los algoritmos de codificación están diseñados para descartar la información redundante o que no es perceptible por el ojo humano. La compresión se realiza analizando similitudes entre imágenes sucesivas, usando información de las imágenes ya enviadas. Cuando se usa esta técnica sólo es necesario enviar la diferencia entre las imágenes, es decir, las zonas de la imagen que han variado entre dos fotogramas consecutivos, lo que elimina la necesidad de transmitir la imagen completa. Este tipo de compresión es conocido como "compresión temporal". El otro método de compresión de video elimina los datos que no cambian entre píxeles adyacentes y es conocido como "compresión espacial".  

De la serie de formatos de compresión existentes, los más novedosos son Indeo 3.0 y las licencias de Cinepak distribuidas por Microsoft.

 

Indeo 3.0: Las versiones de Indeo se desarrollaron para una tecnología ya algo anticuada basada en el procesador 7.0 de intel, que colocando algunas tarjetas específicas, permite comprimir y descomprimir un flujo de video en tiempo real consiguiendo una calidad muy alta. La actual versión de  Indeo se desarrolló para para funcionar con los procesadores x86 (80386, 80486 y Pentium), lo que significa que es mucho más rápida y que no precisa de un procesador dedicado.

 

Cinepak: El que Microsoft distribuya sus licencias gratuitamente con todas las versiones de “vides for Windows” ha supuesto que esta tecnología, que antes costaba mucho dinero esté al alcance de todos los usuarios. Este codec puede alcanzar factores de compresión más altos de todos los sistemas existentes en el mercado.

 

Los principales codecs actualmente empleados, así como sus prestaciones en función de la compresión aplicada, se detallan en la siguiente tabla, referida a un archivo de 6,25 Mbytes:

Codec

Calidad

Tamaño del archivo

Reducción

Calidad de la imagen

Cinepak

1

12.520

95%

Pobre

100

26.852

89%

Excelente

45

16.804

93%

Aceptable

75

20.932

91%

Buena

Indeo 3.0

0

15.662

93%

Pésima

100

30.034

87%

Excelente

45

18.852

92%

Suficiente

75

26.600

89%

Buena

MS Video 1.0

100

85.680

63%

Buena

45

13.848

94%

Pésima

75

28.312

88%

Aceptable

RLE

0

78.226

3%

Muy buena

100

78.226

3%

Muy buena

 

Acerca de estos codecs conviene aclarar lo siguiente:

 

Indeo 3.0

Captura video en tiempo real. No es recomendable para operaciones de edición de video, pero es especialmente útil con video de 8 bits (hasta 256 colores). Si se usa con niveles altos de compresión, o en sistemas lentos, se pueden producir desincronizaciones entre la imagen y el sonido. Es un codec de 24 bits que proporciona resultados espléndidos en sistemas de 16 y 24 bits de video (más de 65.000 colores).

Cinepak

Es un codec que proporciona niveles de compresión más altos que Indeo, lo que le hace ideal para la distribución de videos en soporte CD-ROM. Es entre cuatro y diez veces más lento que Indeo, pero mucho más eficaz en sistemas de video de 8 bits. Al igual que Indeo, proporciona los mejores resultados en sistemas de video de 16 y 24 bits.

Microsoft Video 1.0

Este codec no permite alcanzar niveles de compresión especialmente altos y, además, la imagen tiende a ser notablemente cuadriculada (se dice que está pixelada). Su verdadera ventaja es que se trata de un codec de 8 bits reales, lo que permite su uso en sistemas poco potentes.

RLE (codificación por longitud de alcance).

Es una forma de compresión especialmente primitiva. En lugar de almacenar cada píxel de una imagen, este codec almacena secuencias de colores. Si un mismo color se emplea dentro de una imagen en 100 pixels consecutivos, RLE almacena dos informaciones distintas:

 

o El valor del color (un valor entre 0 y 255)

o La longitud de su alcance (cuántos pixels consecutivos tienen el mismo color).

Este formato es especialmente eficaz con archivos de animación 3D convertidos a formato AVI, pero no con archivos normales de video.

 

Los programas y las tarjetas compresoras han de cumplir dos requisitos fundamentales:

  1. Reducción máxima de espacio ocupado.
  2. Máxima velocidad de descompresión.

 

Evidentemente, deben cumplirlos al mismo tiempo, ya que de nada vale comprimir mucho si se tarda mucho en descomprimir, o descomprimir muy rápido si prácticamente no se comprime.

 

Los comités internacionales de estándares han desarrollado varias técnicas genéricas de compresión, siendo las siguientes las dos más importantes:

 

1. JPEG (Joint Photographic Experts Group).

Tiene dos variantes:

JPEG estándar. Sistema de compresión fotográfico (para imágenes estáticas) que funciona dentro del grupo de sistemas de compresión LOSSY (sistemas de compresión con pérdidas, aunque las pérdidas que se producen son mínimas).

JPEG de movimiento. Es una versión modificada del sistema de compresión estándar que calcula, y guarda, las diferencias existentes entre dos fotogramas consecutivos en lugar de almacenar cada fotograma por separado.

2. MPEG (Moving Picture Experts Group): Formato de compresión por hardware. Mientras el JPEG está basado en imágenes estáticas, MPEG está basada en imágenes en movimiento. Es un método de compresión con pérdidas. Usa un método conocido como cálculo de predicción; es decir, utiliza el contenido de un fotograma para predecir el contenido del siguiente. En este formato, una secuencia de 60 segundos (imagen y sonido), sin comprimir, ocupa un espacio de 1,5 Gbytes.

 

 

Formatos de archivos de videos

 

Una vez que la señal de video compuesto ha sido digitalizada y convertida a RGB, o expresada en YUV, que es lo más habitual, viene el proceso de guardarla en algún soporte de los que utiliza el computador, para lo cual se deben capturar las imágenes tarea que puede realizarse de dos modos distintos:

  1. El primer modo consiste en grabar una simple imagen en particular y guardarla en cual-quiera de los formatos de imagen reconocidos (BMP, JPEG -JPG-, TIFF, TARGA -TGA-, GIF, etc.).
  2. El segundo modo consiste en grabar un fragmento de película; es decir, realizar una captura en tiempo real. Para ello es necesario guardar el conjunto de imágenes y sonido en algún formato que sea posible usar en el computador, siempre condicionado tanto por el hardware como por el software empleados en la captura.

 

Estos archivos, producto de captura suelen estar formados por una cabecera en la que se almacena información sobre las características del archivo; a continuación se almacenan los frames que componen la secuencia grabada, intercalándose el sonido (si lo hay) entre ellos.

Los datos de la cabecera son, entre otros:

 

bullet El número de frames que tiene el archivo.
bullet La separación de tiempos entre ellos.
bullet El tiempo de exposición.
bullet La resolución.
bullet El nivel de compresión.
bullet Información acerca del sonido, etc.

 

Los formatos más utilizados a nivel de PC son, en principio:

 

AVI (Audio and Video Interleaved/Interlaced): El Avid utiliza técnicas de compresión digital de video JPEG para almacenar el material en disco de ordenador. La relación de almacenamiento varía dependiendo de la resolución de imagen seleccionada y del tamaño y número de discos. Utilizando buses SCSI – 2, se pueden conectar al sistema hasta 21 dispositivos de almacenamiento. Los dispositivos incluyen discos magnéticos fijos, discos magnéticos removibles y videos discos Panasonic. La compañía estima que el usuario puede almacenar hasta 29 horas de imagen y sonido.

 

            El sistema, basado en un ordenador Macintosh, ofrece los siguientes dispositivos de entrada: un teclado, un ratón, un TrackBall y un dispositivo de control por desplazamiento para buscar el material. La resolución de la imagen utilizando compresión digital de video JPEG es de 640x480 para NTSC (Nacional Televisión Standards committe) y de 640x576 para PAL (Phase alternate line). La resolución de audio es de 22, 24, 44, 1 y 48 KHz.

 

La interfaz incluye dos monitores: uno para el material contenido en las cestas o bins y el otro para mostrar la interfaz de edición, que contiene dos ventanas o monitores: una ventana para el material fuente (monitor fuente) y otra para la secuencia editada monitor de edición). El material se saca del monitor de bin y se lleva al monitor fuente, editando en el monitor de edición y creando múltiples versiones. Otras prestaciones que se incluyen son: la edición y mezcla de 24 pistas de audio, movimiento rápido y lento, presentación de un monitor forma de onda y un vectorscopio por software, importación y posicionamiento de gráficos, corte y otros tipos de transacciones que deben ser precalculadas como son fundidos y cortinillas.

 

La utilización del sistema está distribuida en todos los tipos de programación desde anuncios a largometrajes, pasando por documentales.

 

 

DVision: El sistema de DVision, diseñado por Touch Vision Systems, supuso para los diseñadores de sistemas basados en cinta Touch Vision, su entrada en el mundo de los sistemas digitales. Utiliza técnicas de compresión digital RTV de Intel. El material se almacena en dos tipos de discos: magnéticos y ópticos. Como en los sistemas digitales la relación de compresión es variable. DVision puede conectar hasta 21 dispositivos de almacenamiento a los buses SCSI, ofreciendo una capacidad estimada por el fabricante de más de 27 horas de material.

 

Basado en un ordenador IBM PS/2, el sistema ofrece los siguientes dispositivos de control: un teclado, un ratón y un trackball. La resolución de la imagen utilizando compresión de video DVI no se expresa en pixels, sino que se compara a calidad de imagen de ¾ de pulgada, es decir, similar a la que proporciona dicho formato de cinta.

 

La interfaz de edición consta de dos monitores y un ordenador. Uno muestra el material y la línea de tiempo de la edición. El segundo, el monitor de imagen, muestra la secuencia que se está editando. El sistema permite al usuario ver los puntos de transición, de cabeza y cola. Funciones de búsqueda por palabras claves permiten localizar el material.

 

Entre las funciones que se incluyen, están los cortes, los fundidos renderizados, las cortinillas, edición y mezcla de audio, importación y posicionamiento de gráficos y velocidad variable de audio.

 

EMC2: El sistema EMC fue introducido en el SMPTE en 1988 en Nueva Cork como el primer sistema de edición off- line no lineal digital. Una posterior versión  el  EMC2, se introdujo en mayo de 1999 y en octubre del mismo año se introdujo la compresión digital de video JPEG. Como todos los sistemas digitales, la relación de almacenamiento se puede variar. El sistema EMC2 soporta discos magnéticos Wren y Panther, discos magneto-ópticos sony y maxtor y discos ópticos por cambio de fase panasonic. La compañía estima que el usuario puede disponer de un almacenamiento de 24 horas.

.

Basados en un PC IBM, el sistema ofrece los dispositivos de control siguiente: teclado, ratón, trackball y teclas especiales para búsquedas. La resolución de la imagen utilizando JPEG es de 720x484 para NTSC. La resolución de audio es de 16 y 48 KHz.

 

La interfaz está basada en un monitor que combina las funciones de monitor fuente y monitor de edición. Este monitor también puede mostrar el programa de anotaciones que se utiliza para organizar y hacer un storyboard del material. Por debajo del menú principal de edición aparece un línea de tiempo en donde se muestra gráficamente las pistas  de  video y de audio.

 

Entre sus prestaciones incluye un ilimitado número de canales de audio para edición y mezcla de pistas de audio, generación de efectos digitales, incrustaciones, transparencia, movimiento lento, cortes, funciones renderizadas de fundido, cortinillas y keys.

 

El formato de compresión es el denominado MPEG. Una secuencia de video en este formato, reproducida a pantalla completa, no pierde calidad, pero si velocidad.

Aquí es de real importancia considerar la "arquitectura de video", que define la forma en que se manejan y sincronizan los datos de video. Cada arquitectura está optimizada para una plataforma específica. Por ejemplo, Windows Media está optimizado para el PC, QuickTime para Apple y Real Systems para la web. Todas las arquitecturas de video son similares en funciones, pero difieren ampliamente en los detalles.

 

Todas definen los formatos de los archivos y sus extensiones, pero no necesariamente especifican el formato real de los datos de video almacenado en el archivo. La arquitectura puede restringir el formato de video, pero no siempre se da el caso. Por ejemplo, Windows Media y QuickTime manejan una amplia variedad de formatos de video. Esto es porque la arquitectura de video sólo define el entorno. Este entorno maneja los datos de video con la información necesaria para reproducirse. Por consiguiente, cuando abrimos un fichero con las extensiones AVI o MOV, lo que realmente abrimos es el entorno. El ordenador lee la información del entorno y llama al software apropiado para que se reproduzca ese fichero correctamente.

 

No todas las arquitecturas son flexibles. Real Systems sólo soporta video comprimido con su propio codec propietario, así la información del entorno no tiene el codec específico para poder descodificar el video comprimido. Esto es lo más importante de esta información técnica. No es la extensión del fichero que vemos en el PC la que define el codec que fue usado para crear el video. Eso está definido por la arquitectura. Las extensiones AVI identifican la arquitectura de video. El resto se encuentra dentro del entorno AVI.

 

 

“Dispositivos de almacenamiento utilizados en los sistemas de edición digital”

 

Dispositivos de almacenamiento para ordenadores

            Cuando utilizamos un tipo de compresión simétrica en tiempo real, al mismo tiempo que se está comprimiendo el material, se deben almacenar los datos en discos.

 

            Como sabemos, hay unas especificaciones sobre el ancho de banda o flujo de datos que la CPU puede soportar. Tendremos problemas si se procesa una secuencia de cuadros o fotogramas y la información asociada a cada cuadro es mayor a al que puede manejar la CPU en un intervalo de tiempo. Por ello, el proceso no puede continuar (se colapsa la CPU) o si continua procesando, hará sólo una parte de cada cuadro o una porción de ellos.

            Esta especificación del flujo de datos está estrechamente relacionada con el tipo de almacenamiento que se utilice. La capacidad digital y la resolución de la imagen que se utilice para la comprensión, también están relacionadas con el sistema de almacenamiento. Si el disco del ordenador no puede almacenar tantos datos como quisiéramos, hay que adoptar un compromiso: elegir una mayor comprensión o almacenar menos material en el disco.

 

Características del disco

            Los discos tienen tres características importantes: su capacidad, la velocidad de transferencia y el tiempo de acceso.

 

Tipos de discos para la edición digital.

            En cuanto al medio físico de grabación, los discos de ordenador pueden ser magnéticos u ópticos. El proceso por el que se lee y escriben lo datos en el disco, pueden ser óptico, magnético o ambos a la vez. Cada disco tiene un conjunto de característica respecto a la velocidad de transferencia de datos, capacidad y tiempo de acceso. El tipo de disco que se va a utilizar será una lección que se tiene que hacer ponderando la cantidad de material que se necesite (capacidad), la calidad de las imágenes (velocidad de transferencia) y el tiempo de respuesta hasta que el material este utilizable (tiempo de acceso).

bullet Disquetes o floppy disks: los disquetes ofrecen una velocidad de transferencia de 80 KB/segundos, una capacidad de almacenamiento desde 1 a 2 MB, y un tiempo de acceso de 180 mseg. Los disquetes están formados por un medio magnético fino y flexible, encapsulado en un protector de plástico. Se puede borrar y usar muchas veces. Se fabrican en varios tamaños desde los antiguos de 8’’ y 5.25’’ hasta el más reciente de 3.5’’ cuya velocidad y popularidad van en aumento. Los disquetes se utilizaban, inicialmente, para almacenar ficheros pequeños, generalmente textos, tales como documentos e informes.
bullet Discos Magnéticos: los discos magnéticos proporcionan una velocidad de transferencia de datos de 0.5 a 3 MB/segundo (1.5 a1.8 MB/seg para el tipo SCSI-1; 3.0 a 4.0 MB/seg para el tipo SCSI-2), una capacidad de 2.4 MB y un tiempo de acceso de 8 a 16 mseg.

Los discos  duros magnéticos tienen una larga historia en su desarrollo y en su uso. Son la tecnología más fiable desde este punto de vista. Se pueden borrar y su fiabilidad se suele medir en tiempos de horas de utilización, del orden de un tiempo medio entre fallos de 40.000. Actualmente, la mayoría de los ordenadores personales tiene un disco duro interno. El tamaño de los discos va de 20 a 40 MB, y se encuentran en un cartucho de 3’’. En cambio, para la edición digital no lineal, los discos utilizados son externos (fuera del ordenador), y las capacidades de 20 a 40 MB, son insuficientes para nuestros propósitos.Los discos duros pueden ser fijos o removibles (RMAG, Removible magnético).  En el caso de discos removibles, el alojamiento del disco permanece en su sitio, pero el cartucho del disco puede ser extraído para insertar otro.  Mientras el tamaño de un disco duro de 40 MB es de 3", el de 1,5 GB es de 5,25".

            Cuanto mayor sea la velocidad de transferencia de datos del tipo de disco utilizado, mayor será la calidad de las imágenes suministradas, cualquiera que sea el proceso compresión. 

        Arrays de discos: Otro método de ampliar la capacidad de almacenamiento, es utilizar arrays o pilas de discos, que hacen que varios discos sean considerados por la CPU como un único disco.  Si la CPU sólo puede comunicarse con siete discos, utilizando un array de discos, hacemos que la CPU crea que está trabajando con un sólo disco, cuando en realidad hay siete discos.  Así, podemos disponer de 49 discos de almacenamiento.  Estos arrays se están introduciendo actualmente, y se consiguen las asombrosas capacidades de decenas de GBytes.  Los avances en la tecnología de discos se realizan muy rápidamente.  El proceso de empaquetamiento de los bits en un espacio cada vez menor, va mejorando y por tanto crece la densidad de almacenamiento de los medios de grabación.

      Discos ópticos: Los discos ópticos que se utilizan en los sistemas de edición no lineal tienen un diámetro de 5 1/4, estos discos almacenan datos en formato digital y no en formato analógico (FM).  Los discos ópticos que estamos tratando son discos de múltiples escrituras, múltiples lecturas y se pueden borrar. No todos los discos ópticos son iguales, se pueden clasificar en dos categorías: discos magneto-ópticos y discos ópticos por cambio de fase.  Las especificaciones para cada tipo son algo diferentes dependiendo del fabricante.  Sin embargo, globalmente, las capacidades de almacenamiento y las velocidades de transferencia son similares.  Ambos tipos de discos ofrecen seguridad, se estima que los discos pueden soportar un millón de escrituras y pueden tener una vida operativa  estimada de 10 años.

 

 

 

 

 Sumario / Capítulo 1 / Capítulo 2 / Capítulo 3 / Capítulo 4 / Capítulo 5